Материалы по тегу: hardware
|
24.03.2026 [10:59], Руслан Авдеев
SpaceX нажаловалась FCC на Blue Origin в ответ на жалобу AmazonВ ответ на жалобу Amazon, поданную в Федеральную комиссию по связи США (FCC) против размещения миллиона спутников SpaceX на орбите, последняя направила регулятору собственное заявление, требуя обратить внимание на заявку Blue Origin, недавно подавшей заявку на вывод на орбиту 51,56 тыс. спутников-ЦОД, сообщает The Register. Blue Origin принадлежит Джеффу Безосу (Jeff Bezos) — основателю Amazon, по-прежнему имеющему с техногигантом весьма тесные связи. Представитель SpaceX подчеркнул, что заявка Blue Origin ничуть не хуже заявки компании Маска и с «безупречной логикой» доказывает, что FCC должна отнестись к обеим заявкам одинаково. Ранее Amazon раскритиковала заявку SpaceX, назвав её «неполной, спекулятивной и нереалистичной», заявив, что в документе содержатся лишь самые общие данные относительно того, как последняя намерена реализовать планы по выводу ЦОД в космос. В письме Amazon говорится, что заявка SpaceX, вероятно, описывает «амбициозные планы, а не реальный замысел». Компания требует отклонить её как «спекулятивную», не соответствующую правилам FCC. В ответ SpaceX направила в FCC ходатайство, предлагающее комиссии «рассмотреть те же содержательные и процессуальные аргументы, но в отношении заявки Blue Origin». Недавно Gartner назвала разговоры о выводе огромного числа ЦОД на орбиту «апофеозом безумия». По словам её экспертов, компании тратят на «модные» проекты деньги впустую, поскольку выводить на орбиту что-то, напоминающее дата-центр, будет непомерно дорого. Кроме того, желающих развернуть ЦОД в космосе ожидают и огромные технические трудности, связанные с эксплуатацией объектов. Впрочем, помимо SpaceX и Blue Origin, над проектами усиленно работают и другие компании, в том числе крупные. Так, с собственной инициативой Project Suncatcher аналогичного толка выступает и Google.
23.03.2026 [12:55], Владимир Мироненко
Сначала Kyber, потом Feynman: NVIDIA раскрыла планы по выпуску ИИ-решений до 2028 годаВслед за анонсом ИИ-ускорителя LPU Groq 3 в составе платформы Vera Rubin компания NVIDIA представила обновлённую дорожную карту решений для ЦОД на период до 2028 года, включив в нее три поколения оборудования, пишет Data Center Dynamics. В рамках перехода на ежегодный цикл выпуска новых архитектур — Hopper, Blackwell (Ultra), Vera Rubin, компания после приобретения Groq за рекордные $20 млрд теперь планирует также ежегодно представлять новую архитектуру LPU. Выпуск LPU NVIDIA Groq 3 запланирован на II половину 2026 года. Также во II половине этого года выйдет платформа NVIDIA Vera Rubin, включающая, помимо NVIDIA Groq 3, Arm-процессоры Vera, ускорители Rubin, интерконнект NVLink 6, адаптеры ConnectX-9 SuperNIC и DPU BlueField-4, а также коммутаторы Spectrum/Quantum-6. На II половину 2027 года намечен выход ускорителя Rubin Ultra с четырьмя вычислительными чиплетами и 1 Тбайт HBM4E. Также во II половине следующего года выйдет второй LPU от NVIDIA — Groq LP35. Кроме того, в 2027 году компания планирует выпустить своё стоечное решение Kyber NVL144/NVL72. Система включает 144 ускорителя Rubin Ultra с NVLink 7, обеспечивая четырёхкратное повышение производительности по сравнению с системой Blackwell NVL72 (Oberon). После анонса Rubin Ultra генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) заявил в 2025 году, что переход на эту платформу потребует «годы планирования». «Это не то же самое, что покупка ноутбука, — сказал он. — Нам нужно планировать с учётом территории и электроснабжения ЦОД вместе с инженерными командами на два-три года вперёд, поэтому я [показываю] дорожную карту». Планы NVIDIA на 2028 год включают масштабный запуск новых процессоров, ускорителей и LPU, получивших названия Rosa, Feynman и LP40 соответственно. По словам разработчика, в Feynman будет использоваться многослойная архитектура кристалла и высокоскоростная память для масштабирования производительности и увеличения пропускной способности. Также Feynman станет первым решением NVIDIA, в котором используются коммутаторы NVLink с интегрированной оптикой. Хуанг заявил, что спрос на продукцию NVIDIA к 2027 году достигнет отметки в $1 трлн, фактически удвоив свой прошлый прогноз. Финансовый директор Колетт Кресс (Colette Kress) уточнила позже, что эта цифра относится только к продуктам Blackwell и Rubin, а также к сопутствующему сетевому оборудованию, и не включает новые продукты, такие как LPU Groq и используемые отдельно процессоры. «Триллион долларов — это огромная сумма для инфраструктуры, — отметил Хуанг. — Вы должны быть полностью уверены, что триллион долларов, которые вы вкладываете, будут использованы, обеспечат высокую производительность, невероятную экономическую эффективность и будут иметь полезный срок службы на протяжении всего периода инвестиций в инфраструктуру. [NVIDIA] — единственная в мире инфраструктура, которую вы можете построить в любой точке мира с полной уверенностью».
23.03.2026 [12:04], Сергей Карасёв
Мини-ПК ASUS ExpertCenter PN55 получил чип AMD Ryzen AI 400 с ИИ-производительностью до 91 TOPSКомпания ASUS анонсировала компьютер небольшого форм-фактора ExpertCenter PN55, предназначенный для использования в бизнес-сфере. Устройство, выполненное на аппаратной платформе AMD, подходит для работы с ИИ-приложениями. Новинка будет предлагаться в виде barebone-систем и в полностью укомплектованных конфигурациях. Применён процессор Ryzen AI 400 поколения Gorgon Point. В частности, максимальная конфигурация включает чип Ryzen AI 9 HX 470, который объединяет 12 ядер (24 потока инструкций) с базовой частотой 2 ГГц и максимальной частотой 5,2 ГГц. В состав изделия входят графический блок Radeon 890M с частотой 3,1 ГГц и нейропроцессорный узел (NPU) с производительностью 60 TOPS. Общее ИИ-быстродействие (с учётом ядер CPU и GPU) достигает 91 TOPS.
Источник изображений: ASUS Компьютер оснащён двумя слотами SO-DIMM для модулей оперативной памяти DDR5-5600 суммарным объёмом до 96 Гбайт. Могут быть установлены два SSD типоразмера M.2 2280 с интерфейсом PCIe 4.0 x4 (NVMe) вместимостью до 2 Тбайт каждый. В оснащение входят двухпортовый сетевой адаптер 2.5GbE (RTL8125BG), звуковой кодек Realtek ALC8233, контроллер беспроводной связи MediaTek MT7922 (Wi-Fi 6E и Bluetooth 5.4) или MediaTek MT7925 (Wi-Fi 7 и Bluetooth 5.4). ![]() На фронтальную панель выведены порт USB 3.1 Type-C (10 Гбит/с) и два порта USB 3.1 Type-A (10 Гбит/с), а также комбинированное аудиогнездо на 3,5 мм. В тыльной части сосредоточены порты USB4 (40 Гбит/с; поддержка DisplayPort 2.1 и PD с мощностью 100 Вт), USB 3.1 Type-A, USB 2.0, HDMI 2.1, два интерфейса DisplayPort 1.4, два гнезда RJ45 для сетевых кабелей. Питание подаётся через DC-коннектор от внешнего блока мощностью 120 Вт. Компьютер имеет размеры 130 × 130 × 34 мм и весит 530 г. Говорится о совместимости с Windows 11 и Windows 11 IoT Enterprise. Допускается монтаж посредством крепления VESA — например, на заднюю стенку монитора.
23.03.2026 [12:00], Сергей Карасёв
ASRock Industrial выпустила компактную рабочую станцию AI Box-A395 на основе AMD Ryzen AI MaxКомпания ASRock Industrial анонсировала компактную рабочую станцию AI Box-A395, предназначенную для работы с большими языковыми моделями (LLM) и различными ИИ-приложениями. Утверждается, что новинка подходит, в частности, для локального инференса. В основу устройства положена аппаратная платформа AMD. Применен процессор Ryzen AI Max+ 395 поколения Strix Halo, который содержит 16 вычислительных ядер с возможностью обработки до 32 потоков инструкций. Базовая тактовая частота составляет 3 ГГц, максимальная частота — 5,1 ГГц. В состав чипа входят графический блок Radeon 8060S с частотой до 2,9 ГГц и нейропроцессорный узел XDNA 2 NPU с производительностью 50 TOPS. Суммарное ИИ-быстродействие (с учётом ядер CPU и GPU) достигает 126 TOPS.
Источник изображения: ASRock Industrial Система AI Box-A395 выполнена в корпусе с размерами 200 × 100 × 232 мм, а масса составляет 2,8 кг. Устройство может нести на борту до 128 Гбайт оперативной памяти LPDDR5X-8000, а также SSD формата M.2 2242/2280 и M.2 2280 с интерфейсом PCIe 4.0 x4 (возможно формирование массива RAID 0/1). В оснащение входят сетевые адаптеры 10GbE (Marvell AQC113) и 2.5GbE (Realtek RTL8125BG), звуковой кодек Realtek ALC897, а также комбинированный контроллер Wi-Fi 7 802.11be / Bluetooth 5.4 в виде модуля М.2. Предусмотрены два интерфейса HDMI 2.1 (7680 × 4320 пикселей, 60 Гц), два гнезда RJ45 для сетевых кабелей, два порта USB4 (40 Гбит/с, DP 2.1), один разъём USB 3.1 Type-C (10 Гбит/с, DP 2.1), два порта USB 3.1 Type-A (10 Гбит/с), два порта USB 2.0, а также стандартные аудиогнёзда на 3,5 мм. Имеется модуль TPM 2.0 для обеспечения безопасности. Заявлена совместимость с Windows 11. Диапазон рабочих температур простирается от 0 до +40 °C. Рабочая станция оснащена ручкой в верхней части корпуса для переноски.
23.03.2026 [09:54], Руслан Авдеев
Крепкие, но нежные руки: DHL расширяет услуги логистики для ИИ ЦОДСлужба доставки DHL объявила о значительном расширении в Северной Америке логистической инфраструктуры для операторов ЦОД и гиперскейлеров. В 2026 году компания добавит 10 специальных складов общей площадью более 650 тыс. м2. Новые объекты обеспечат максимально бережное обращение с оборудованием, сервисы по конфигурации стоек и специализированную транспортировку со склада на территорию кампусов. Тщательно контролируемое обращение с серверами, силовыми модулями и сетевым оборудованием предотвращает повреждения, способные вызвать дорогостоящие задержки поставок. Услуги по конфигурации стоек позволяют выполнять сборку и тестирование оборудования не на площадке самого ЦОД, а ещё на складе, что тоже снижает риск задержек. Наконец, аккуратная доставка со склада на территорию кампуса позволяет заказчикам избежать вызовов, связанных со сложностями при перевозке крупногабаритного и «нежного» оборудования. DHL обеспечивает критически важную логистическую поддержку, обеспечивающую строительство новых мегакампусов, помогая клиентам ускорить развёртывания объектов в соответствии с современными требованиями к строительству дата-центров. По словам DHL, гиперскейлеры создают цифровую основу эры ИИ с «экстраординарной» скоростью. Новые объекты компании создаются специально для того, чтобы строительство ЦОД могло осуществляться необходимыми темпами.
Источник изображения: DHL Работа в режиме 24/7 и тесная интеграция подразделений DHL позволяет компании выступать «единым партнёром», координирующим глобальные потоки поставок с точным исполнением на местах. По данным компании, опросы показывают, что 85 % лиц, принимающих решения на рынке ЦОД, предпочли бы работать с единым логистическим партнёром, но только 43 % считают, что эта цель достигнута.
Источник изображения: DHL Расширение DHL органично связано с сетью DHL Global Forwarding, обеспечивающей мультимодальные перевозки, компетенции в таможенном оформлении и обработку негабаритных и тяжёлых грузов. Это критически важно, поскольку вычислительные системы нередко поступают из-за рубежа. Со временем компания намерена расширить логистические услуги для ЦОД и в других регионах мира. В Латинской Америке растущие инвестиции выступают драйверами спроса на бондовое хранение — складирование с таможенным контролем, безопасную транспортировку серверов и мультимодальную прокладку маршрутов для развёртывания оборудования в сжатые сроки. Также всё чаще специальные чартерные рейсы используются на маршрутах в Европе, на Ближнем Востоке и в Африке, в Азиатско-Тихоокеанском регионе (АТР), а также на пути из АТР в США.
23.03.2026 [09:31], Сергей Карасёв
HPE представила узлы на базе NVIDIA Vera для платформы Cray Supercomputing GX5000Компания HPE анонсировала новые решения семейства NVIDIA AI Computing by HPE, ориентированные на крупномасштабные ИИ-платформы и суперкомпьютерные системы. О намерении использовать такие инфраструктурные продукты в числе прочих сообщили Аргоннская национальная лаборатория (ANL) Министерства энергетики США (DOE), Hudson River Trading (HRT), Корейский институт научно-технической информации (KISTI) и Центр высокопроизводительных вычислений HLRS при Штутгартском университете в Германии. В частности, представлены новые узлы для суперкомпьютерной платформы HPE Cray Supercomputing GX5000 — blade-серверы HPE Cray Supercomputing GX240. Эти устройства могут нести на борту до 16 процессоров NVIDIA Vera (88C/176T). В одной стойке могут быть размещены до 40 узлов, что в сумме даёт 640 чипов Vera и 56 320 ядер Olympus. Реализовано жидкостное охлаждение. Система предназначена для решения наиболее ресурсоёмких вычислительных задач в области ИИ. Новые серверы появятся на рынке в следующем году. Для платформы HPE Cray Supercomputing GX5000 также будут доступны коммутаторы NVIDIA Quantum-X800 InfiniBand, предоставляющие 144 порта с пропускной способностью до 800 Гбит/с. В этих устройствах реализованы развитые функции снижения энергопотребления. Кроме того, HPE готовит OCP-серверы высокой плотности Compute XD700 для обучения LLM и инференса. В основу данной системы положена платформа NVIDIA HGX Rubin NVL8, а одна стойка может насчитывать до 128 ускорителей Rubin. Данное решение появится в начале 2027-го. Помимо этого, анонсирована стоечная система нового поколения NVIDIA Vera Rubin NVL72 by HPE — это флагманская ИИ-платформа, разработанная для моделей с более чем 1 трлн параметров. Конфигурация включает 36 процессоров Vera, 72 чипа Rubin, интерконнект NVIDIA NVLink шестого поколения, сетевые адаптеры NVIDIA ConnectX-9 SuperNIC и DPU NVIDIA BlueField-4. Система поступит в продажу в декабре 2026 года.
22.03.2026 [13:10], Сергей Карасёв
Почти втрое быстрее NVIDIA H20: Huawei представила ИИ-ускоритель Atlas 350 для инференсаКомпания Huawei Technologies, по сообщению газеты South China Morning Post (SCMP), представила ускоритель Atlas 350, предназначенный для ИИ-инференса. Утверждается, что в таких задачах новинка обеспечивает прирост производительности до 2,8 раза по сравнению с NVIDIA H20. Известно, что решение Atlas 350 выполнено на чипе Ascend 950PR. Заявленная ИИ-производительность в формате FP4 достигает 1,56 Пфлопс. Показатели быстродействия в других режимах пока не раскрываются, но ранее говорилось об 1 Пфлопс в FP8. Как отмечается, Huawei использует собственную память HBM. Её объём в зависимости от конфигурации ускорителя составляет до 128 Гбайт, пропускная способность — 1,6 Тбайт/с. Прочие технические характеристики не приводятся. Ускоритель Atlas 350 оптимизирован для предварительного заполнения (Prefill) в ходе инференса — это наиболее ресурсоёмкая фаза работы больших языковых моделей (LLM) в рамках процесса генерации контента: на данном этапе производится обработка входного запроса пользователя. Скорость выполнения предварительного заполнения напрямую влияет на показатель TTFT (Time To First Token), то есть, на время, прошедшее с момента ввода запроса до начала ответа. Таким образом, решение Atlas 350 подходит для ИИ-приложений реального времени и агентных систем.
Источник изображения: Huawei Huawei также заявила о планах масштабного обновления своих СХД, включая решения OceanStor Dorado и Pacific 9926 класса All-Flash. Кроме того, компания готовит платформу FusionCube A1000, которая поможет малым и средним предприятиям быстро разворачивать ИИ-системы. «Если первая половина эпохи ИИ была сосредоточена на вычислительной мощности, то вторая половина будет определяться данными. В 2026 году Huawei продолжит модернизацию своих СХД и будет активно участвовать в крупных национальных проектах по формированию соответствующей инфраструктуры», — говорит Юань Юань (Yuan Yuan), президент подразделения по хранению данных Huawei.
21.03.2026 [22:06], Владимир Мироненко
Supermicro выгнала сооснователя компании, попавшегося на контрабанде в Китай подсанкционного ИИ-оборудованияКомпания Super Micro Computer (Supermicro), оказавшаяся в центре скандала с контрабандой подсанкционного оборудования в Китай, обрушившего её акции на треть, предприняла меры по соблюдения нормативных требований во избежание подобных случаев в дальнейшем, сообщил ресурс Bloomberg. В пятницу Supermicro объявила о назначении ДеАнны Луны (DeAnna Luna) директором по соблюдению нормативных требований с немедленным вступлением в должность. Луна, занимавшая должность вице-президента Supermicro по вопросам глобальной торговли и соблюдения санкций, ранее работала в Intel и Teledyne. Это назначение последовало после того, как соучредителю Supermicro и её сотруднику, а также подрядчику было предъявлено обвинение в сговоре с целью поставки передовых чипов NVIDIA в Китай, что является нарушением американского экспортного контроля. Также в пятницу вечером Supermicro сообщила, что соучредитель компании И-Шьян Лиау (Yih-Shyan Liaw) исключён из совета директоров, в котором теперь будет восемь членов. Supermicro отметила в заявлении, что предполагаемые действия обвиняемых в контрабанде её оборудования «являются нарушением политики и мер контроля за соблюдением законодательства, включая попытки обойти применимые законы и правила экспортного контроля», добавив, что компания «поддерживает надёжную программу соблюдения законодательства и привержена полному соблюдению всех применимых законов и правил США об экспортном и реэкспортном контроле». Нынешний скандал стал новым потрясением для компании, лишь недавно справившейся с проблемами в бухгалтерском учёте, из-за которых аудиторская фирма Ernst & Young LLP отказалась от работы с Supermicro, сославшись на опасения по поводу нарушений в корпоративном управлении и прозрачности отчётности. Ситуация стала меняться к лучшему в прошлом месяце, когда компания представила более высокий, чем ожидалось, прогноз продаж. Выручка, согласно прогнозу Supermicro, составит не менее $12,3 млрд за III квартал 2026 финансового года, заканчивающийся 31 марта, тогда как аналитики в среднем прогнозировали $10,2 млрд. Компания позиционирует себя как ключевого бенефициара развития ИИ — и добилась определённых успехов. В 2023 году её акции выросли на 246 %, хотя вскоре рост сошёл на нет. В следующем году акции выросли в цене на 7,2 %, хотя акции NVIDIA и других компаний в сфере, занимающихся ИИ показали больший рост — и упали на 4 % в 2025 году. С учётом пятничного обвала акции снизились с начала 2026 года на 30 %.
21.03.2026 [14:28], Андрей Крупин
ИТ-холдинг Т1: только 9 % организаций в России обеспечены вычислительной инфраструктурой для ИИРынок искусственного интеллекта переживает фазу стремительного роста, однако инфраструктурная база в России для масштабирования ИИ-проектов остаётся ограниченной. Об этом свидетельствует исследование ИТ-холдинга Т1, показавшее, что только 9 % отечественных организаций полностью обеспечены соответствующими вычислительными ресурсами, а 40 % компаний — частично. Согласно представленным Т1 данным, объём российского рынка ИИ-ускорителей в 2025 году составил порядка 63 млрд руб. При этом существенная доля спроса (80 %) формируется крупнейшими корпоративными клиентами, экосистемными игроками и государственным сектором. В эквиваленте карт NVIDIA A100 в коммерческих дата-центрах используется более 10 тыс. GPU, ещё около 8 тыс. — в локальной инфраструктуре компаний.
Источник изображения: Roman Budnikov / unsplash.com Согласно прогнозам экспертов ИТ-холдинга Т1, к 2030 году упомянутый рынок может вырасти до 257,6 млрд руб. благодаря запуску новых проектов, дооснащению действующих мощностей и расширению промышленного инференса. При этом текущая динамика такова, что рост потребления GPU-ускорителей, вероятно, будет опережать возможности производства и цепочек поставок в среднесрочной перспективе, формируя устойчивый дефицит на рынке аппаратного обеспечения для ИИ. «После официального ухода NVIDIA российский бизнес столкнулся с необходимостью искать альтернативы, а также с ростом цен, увеличением сроков поставки и снижением качества поддержки. При этом процесс замены ИИ-ускорителей отягощается и программным слоем — оптимизация ИИ-моделей под специфическую и изолированную архитектуру новых поставщиков фактически требует переписывать их код. Для крупных корпоративных клиентов это создаёт почти запредельный порог входа. В этих условиях растёт спрос на сервисную модель без привязки к конкретному вендору, позволяющую масштабировать мощности без капитальных затрат, а также снижать санкционные и операционные риски при совмещении американских и китайских GPU. В итоге развитие отечественного рынка альтернативных ИИ-ускорителей становится ключевым фактором перехода от вынужденного импортозамещения к осознанному технологическому выбору, где главный фокус — экономика, масштабируемость и контроль над критической инфраструктурой», — поясняют в Т1 текущую ситуацию на рынке.
21.03.2026 [13:15], Владимир Мироненко
Alibaba сообщила об отгрузке 470 тысяч чипов, признав, что они пока уступают решениям NVIDIA и AMDКитайская технологическая компания Alibaba Group Holding сообщила финансовые результаты III квартала 2026 финансового года, закончившегося 31 декабря 2025 года. В ходе телефонной конференции по итогам квартала, генеральный директор Alibaba У Юнмин (Wu Yongming), также известный как Эдди У (Eddie Wu), сообщил, что по состоянию на февраль 2026 года совокупный объём поставок чипов собственного производства достиг 470 тыс. ед., а годовая выручка от их продаж превысила ¥10 млрд. У Юнмин также сообщил о 36-% росте квартальной выручки облачного подразделения Alibaba Cloud, поскольку спрос на ИИ-сервисы резко возрос, а компания ускорила усилия по монетизации своих инвестиций в ИИ. Он отметил, что выручка от продуктов, связанных с ИИ, демонстрирует трехзначный рост в годовом исчислении уже десятый квартал подряд. Потребление токенов на публичном рынке MaaS (модель как услуга) на платформе Bailian MaaS за последние три месяца увеличилось в шесть раз. Как пишет ресурс The Register, гендиректор Alibaba не уточнил разбивку по поставкам наименований чипов. Разработкой и производством чипов занимается собственное подразделение Alibaba — T-Head Semiconductor (Pingtouge Semiconductor). Ресурс сообщил, что T-Head создало несколько чипов, включая, по крайней мере три чипа, предназначенных для рабочих ИИ-нагрузок, в том числе XuanTie C908, TH1520 для периферийного ИИ и Pingtouge Zhenwu 810E. Последний дебютировал в январе и, как считается, может конкурировать с NVIDIA H20, урезанной версией ускорителя на базе архитектуры Hopper 2023 года. Если речь идёт только о 810E, то 470 тыс. отгруженных с января чипов впечатляют, поскольку это ставит темпы производства Alibaba на один уровень с NVIDIA, отметил The Register. Генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) в прошлом году заявил, что компания отгрузила 6 млн ускорителей с архитектурой Blackwell за год. Как пишет EE Times China, согласно данным, опубликованным на официальном сайте Pingtouge, GPU Zhenwu 810E полностью разработан собственными силами, как в программном, так и в аппаратном отношении, и демонстрирует производительность, сравнимую с NVIDIA H20 и превосходящую A800 и другие популярные отечественные GPU. Он уже развёрнут в нескольких кластерах на платформе Alibaba Cloud, обслуживающей таких клиентов, как Государственная электросетевая компания, Китайская академия наук, XPeng Motors, Sina Weibo и др. Chinastarmarket.cn со ссылкой на гендиректора Alibaba пишет, что производственные мощности по выпуску высококачественных ИИ-чипов планируется расширить в 2026–2027 гг. По словам гендиректора, продукция T-Head пользуется высоким спросом у внешних коммерческих клиентов, на которых приходится более 60 % поставок чипов. А ИИ-чипы компании используют для обработки ИИ-нагрузок более 400 корпоративных клиентов из различных сегментов, включая интернет, финансовые услуги, автономное вождение и интеллектуальное производство.
Источник изображения: T-Head У Юнмин подчеркнул: «В ближайшие 3–5 лет глобальные вычислительные мощности для ИИ будут крайне дефицитными. Будучи единственной компанией на китайском рынке облачных вычислений, способной разрабатывать собственные чипы, T-Head имеет решающее значение для Alibaba Group». Отметим, что Huawei давно разрабатывает собственные ускорители Ascend и имеет облачное подразделение Huawei Cloud. Вместе с тем У Юнмин признал, что чипы компании пока не могут конкурировать с ускорителями NVIDIA и AMD. «Учитывая, что наши чипы по-прежнему отстают от зарубежных аналогов по производительности в различных аспектах, мы стремимся к более глубокому сотрудничеству с облачной инфраструктурой Alibaba и моделью Qwen для повышения экономической эффективности, — сообщил гендиректор. — Это одно из ключевых отличий и наш подход к проектированию чипов в T-Head, которое выделяет нас среди других компаний-производителей чипов. Наша главная цель — создание возможностей для ИИ, обеспечивающих превосходное соотношение цены и качества». Он отметил, что разработка собственных чипов гарантирует Alibaba «достаточное количество вычислительных мощностей для ИИ», что, по его словам, необходимо, учитывая «уникальные обстоятельства, с которыми в настоящее время сталкивается индустрия ИИ в Китае» — вероятно, имея в виду экспортные ограничения США касательно поставок в Китай передовых ускорителей. У Юнмин также выразил мнение, что разработка собственной технологической платформы поможет Alibaba снизить затраты на инференс, и это позволит облачной платформе получать значительную прибыль по мере роста спроса на ИИ. В ответ на слухи в отрасли о возможном выделении T-Head в отдельную компанию и проведении IPO, У Юнмин заявил: «T-Head не исключает проведения IPO в будущем, но чётких сроков пока нет». В ходе телефонной конференции Alibaba объявила о своих бизнес-целях в рамках стратегии в области ИИ: достичь в течение следующих пяти лет годового дохода более $100 млрд от коммерциализации облачных технологий и ИИ, включая MaaS. Отметим, что в минувшем квартале выручка Alibaba Cloud составила $6,2 млрд. У Юнмин сообщил, что основными драйверами роста Alibaba станут три области. Во-первых — сервисы MaaS. Рост, обусловленный инициативами MaaS, как ожидается, станет ключевым фактором роста будущей выручки как для ИИ, так и для облачных сервисов. Во-вторых, в значительном числе крупных, средних и малых предприятий будет расти спрос на внутреннее обучение и инференс на корпоративном уровне — это новый рынок. «В-третьих, есть ещё один важный фактор, важная возможность, которую, как мне кажется, часто игнорируют. Я говорю об облачных вычислениях, ориентированных на ЦП, о традиционных облачных вычислениях, которые всё ещё имеют значительный потенциал для расширения в эпоху ИИ», — сообщил глава компании. Согласно его прогнозу, в будущем могут появиться миллиарды агентов, созданных большими ИИ-моделями и их операционными средами. Операционные среды этих агентов также потребуют существенной поддержки со стороны традиционных облачных вычислений. Им нужны традиционные CPU, базы данных, хранилища и большие объёмы памяти для поддержки долгосрочного решения проблем и устойчивой работы. Задача состоит в трансформации традиционного рынка облачных вычислений, в переходе от облачной платформы, разработанной для пользователей-людей, ИТ-инженеров, к платформе, оптимизированной для вызова на основе агентов. «Я считаю, что здесь есть огромный потенциал для роста», — заявил У Юнмин. «Ключевой задачей для нас в этом году является трансформация традиционных облачных вычислений в платформу, которая лучше подходит для использования агентами. Это ключевой аспект обновления Alibaba Cloud», — добавил он. |
|

