Материалы по тегу: hardware

24.03.2026 [11:36], Сергей Карасёв

AMD EPYC Turin, 768 Гбайт RAM и 100GbE: Cloudflare представила серверы 13-го поколения

Cloudflare анонсировала серверы 13-го поколения (Gen 13) — свои самые высокопроизводительные системы, в основу которых положена аппаратная платформа AMD EPYC 9005 Turin. По сравнению с решениями Gen 12, дебютировавшими в сентябре 2024 года, новые устройства обеспечивают повышение производительности в расчёте на 1 Вт до 50% и двукратное увеличение пропускной способности.

Серверы Gen 13 имеют одноузловую односокетную архитектуру в корпусе 2U. Задействован процессор EPYC 9965 (192C/384T; 2,25/3,7 ГГц). Используется 12-канальная подсистема оперативной памяти на основе модулей DDR5-6400 ECC RDIMM суммарным объёмом 768 Гбайт (12 × 64 Гбайт). Обеспечивается пиковая пропускная способность ОЗУ на уровне 614 Гбайт/с на сокет, что на треть больше по сравнению с платформой Cloudflare Gen 12. В дополнение к шифрованию памяти (TSME) теперь шифруется и PCIe-трафик.

 Источник изображения: Cloudflare

Источник изображения: Cloudflare

Машины нового поколения оснащаются тремя SSD формата E1.S толщиной 15 мм с интерфейсом PCIe 5.0 (NVMe 2.0) вместимостью 7,68 Тбайт каждый. Используются накопители Samsung PM9D3a или Micron 7600 Pro, которые рассчитаны на одну полную перезапись в сутки (1DWPD) на протяжении всего срока службы серверов (пять лет). Во фронтальной части корпуса опционально размещаются десять дополнительных отсеков для U.2 SSD с интерфейсом PCIe 5.0 (NVMe) — это позволяет унифицировать вычислительные узлы с узлами хранения. Также возможна установка двух двухслотовых FHFL-карт.

Серверы оборудованы модулями OCP 3.0 с двумя сетевыми портами 100GbE (адаптеры Intel E830-CDA2 и NVIDIA Mellanox ConnectX-6 Dx). В оснащение входят контроллеры ASPEED AST2600 (BMC) и AST1060 (HRoT), а также модуль TPM (Infineon SLB 9672). Эти компоненты, а также сдвоенные чипы памяти BMC и BIOS/UEFI, находятся на внешней карте стандарта OCP DC-SCM 2.0 (Project Argus). Питание обеспечивается CRPS БП мощностью 1300 Вт с сертификатом 80 PLUS Titanium. За охлаждение отвечают пять 80-мм вентиляторов.

Постоянный URL: http://servernews.ru/1138777
24.03.2026 [10:59], Руслан Авдеев

SpaceX нажаловалась FCC на Blue Origin в ответ на жалобу Amazon

В ответ на жалобу Amazon, поданную в Федеральную комиссию по связи США (FCC) против размещения миллиона спутников SpaceX на орбите, последняя направила регулятору собственное заявление, требуя обратить внимание на заявку Blue Origin, недавно подавшей заявку на вывод на орбиту 51,56 тыс. спутников-ЦОД, сообщает The Register.

Blue Origin принадлежит Джеффу Безосу (Jeff Bezos) — основателю Amazon, по-прежнему имеющему с техногигантом весьма тесные связи. Представитель SpaceX подчеркнул, что заявка Blue Origin ничуть не хуже заявки компании Маска и с «безупречной логикой» доказывает, что FCC должна отнестись к обеим заявкам одинаково.

Ранее Amazon раскритиковала заявку SpaceX, назвав её «неполной, спекулятивной и нереалистичной», заявив, что в документе содержатся лишь самые общие данные относительно того, как последняя намерена реализовать планы по выводу ЦОД в космос. В письме Amazon говорится, что заявка SpaceX, вероятно, описывает «амбициозные планы, а не реальный замысел». Компания требует отклонить её как «спекулятивную», не соответствующую правилам FCC. В ответ SpaceX направила в FCC ходатайство, предлагающее комиссии «рассмотреть те же содержательные и процессуальные аргументы, но в отношении заявки Blue Origin».

 Источник изображения: Bluepikachu / Unsplash

Источник изображения: Bluepikachu / Unsplash

Недавно Gartner назвала разговоры о выводе огромного числа ЦОД на орбиту «апофеозом безумия». По словам её экспертов, компании тратят на «модные» проекты деньги впустую, поскольку выводить на орбиту что-то, напоминающее дата-центр, будет непомерно дорого. Кроме того, желающих развернуть ЦОД в космосе ожидают и огромные технические трудности, связанные с эксплуатацией объектов.

Впрочем, помимо SpaceX и Blue Origin, над проектами усиленно работают и другие компании, в том числе крупные. Так, с собственной инициативой Project Suncatcher аналогичного толка выступает и Google.

Постоянный URL: http://servernews.ru/1138778
23.03.2026 [12:55], Владимир Мироненко

Сначала Kyber, потом Feynman: NVIDIA раскрыла планы по выпуску ИИ-решений до 2028 года

Вслед за анонсом ИИ-ускорителя LPU Groq 3 в составе платформы Vera Rubin компания NVIDIA представила обновлённую дорожную карту решений для ЦОД на период до 2028 года, включив в нее три поколения оборудования, пишет Data Center Dynamics. В рамках перехода на ежегодный цикл выпуска новых архитектур — Hopper, Blackwell (Ultra), Vera Rubin, компания после приобретения Groq за рекордные $20 млрд теперь планирует также ежегодно представлять новую архитектуру LPU.

Выпуск LPU NVIDIA Groq 3 запланирован на II половину 2026 года. Также во II половине этого года выйдет платформа NVIDIA Vera Rubin, включающая, помимо NVIDIA Groq 3, Arm-процессоры Vera, ускорители Rubin, интерконнект NVLink 6, адаптеры ConnectX-9 SuperNIC и DPU BlueField-4, а также коммутаторы Spectrum/Quantum-6.

На II половину 2027 года намечен выход ускорителя Rubin Ultra с четырьмя вычислительными чиплетами и 1 Тбайт HBM4E. Также во II половине следующего года выйдет второй LPU от NVIDIA — Groq LP35. Кроме того, в 2027 году компания планирует выпустить своё стоечное решение Kyber NVL144/NVL72. Система включает 144 ускорителя Rubin Ultra с NVLink 7, обеспечивая четырёхкратное повышение производительности по сравнению с системой Blackwell NVL72 (Oberon).

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

После анонса Rubin Ultra генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) заявил в 2025 году, что переход на эту платформу потребует «годы планирования». «Это не то же самое, что покупка ноутбука, — сказал он. — Нам нужно планировать с учётом территории и электроснабжения ЦОД вместе с инженерными командами на два-три года вперёд, поэтому я [показываю] дорожную карту».

Планы NVIDIA на 2028 год включают масштабный запуск новых процессоров, ускорителей и LPU, получивших названия Rosa, Feynman и LP40 соответственно. По словам разработчика, в Feynman будет использоваться многослойная архитектура кристалла и высокоскоростная память для масштабирования производительности и увеличения пропускной способности. Также Feynman станет первым решением NVIDIA, в котором используются коммутаторы NVLink с интегрированной оптикой.

Хуанг заявил, что спрос на продукцию NVIDIA к 2027 году достигнет отметки в $1 трлн, фактически удвоив свой прошлый прогноз. Финансовый директор Колетт Кресс (Colette Kress) уточнила позже, что эта цифра относится только к продуктам Blackwell и Rubin, а также к сопутствующему сетевому оборудованию, и не включает новые продукты, такие как LPU Groq и используемые отдельно процессоры.

«Триллион долларов — это огромная сумма для инфраструктуры, — отметил Хуанг. — Вы должны быть полностью уверены, что триллион долларов, которые вы вкладываете, будут использованы, обеспечат высокую производительность, невероятную экономическую эффективность и будут иметь полезный срок службы на протяжении всего периода инвестиций в инфраструктуру. [NVIDIA] — единственная в мире инфраструктура, которую вы можете построить в любой точке мира с полной уверенностью».

Постоянный URL: http://servernews.ru/1138717
23.03.2026 [12:04], Сергей Карасёв

Мини-ПК ASUS ExpertCenter PN55 получил чип AMD Ryzen AI 400 с ИИ-производительностью до 91 TOPS

Компания ASUS анонсировала компьютер небольшого форм-фактора ExpertCenter PN55, предназначенный для использования в бизнес-сфере. Устройство, выполненное на аппаратной платформе AMD, подходит для работы с ИИ-приложениями. Новинка будет предлагаться в виде barebone-систем и в полностью укомплектованных конфигурациях.

Применён процессор Ryzen AI 400 поколения Gorgon Point. В частности, максимальная конфигурация включает чип Ryzen AI 9 HX 470, который объединяет 12 ядер (24 потока инструкций) с базовой частотой 2 ГГц и максимальной частотой 5,2 ГГц. В состав изделия входят графический блок Radeon 890M с частотой 3,1 ГГц и нейропроцессорный узел (NPU) с производительностью 60 TOPS. Общее ИИ-быстродействие (с учётом ядер CPU и GPU) достигает 91 TOPS.

 Источник изображений: ASUS

Источник изображений: ASUS

Компьютер оснащён двумя слотами SO-DIMM для модулей оперативной памяти DDR5-5600 суммарным объёмом до 96 Гбайт. Могут быть установлены два SSD типоразмера M.2 2280 с интерфейсом PCIe 4.0 x4 (NVMe) вместимостью до 2 Тбайт каждый. В оснащение входят двухпортовый сетевой адаптер 2.5GbE (RTL8125BG), звуковой кодек Realtek ALC8233, контроллер беспроводной связи MediaTek MT7922 (Wi-Fi 6E и Bluetooth 5.4) или MediaTek MT7925 (Wi-Fi 7 и Bluetooth 5.4).

На фронтальную панель выведены порт USB 3.1 Type-C (10 Гбит/с) и два порта USB 3.1 Type-A (10 Гбит/с), а также комбинированное аудиогнездо на 3,5 мм. В тыльной части сосредоточены порты USB4 (40 Гбит/с; поддержка DisplayPort 2.1 и PD с мощностью 100 Вт), USB 3.1 Type-A, USB 2.0, HDMI 2.1, два интерфейса DisplayPort 1.4, два гнезда RJ45 для сетевых кабелей. Питание подаётся через DC-коннектор от внешнего блока мощностью 120 Вт.

Компьютер имеет размеры 130 × 130 × 34 мм и весит 530 г. Говорится о совместимости с Windows 11 и Windows 11 IoT Enterprise. Допускается монтаж посредством крепления VESA — например, на заднюю стенку монитора.

Постоянный URL: http://servernews.ru/1138722
23.03.2026 [12:00], Сергей Карасёв

ASRock Industrial выпустила компактную рабочую станцию AI Box-A395 на основе AMD Ryzen AI Max

Компания ASRock Industrial анонсировала компактную рабочую станцию AI Box-A395, предназначенную для работы с большими языковыми моделями (LLM) и различными ИИ-приложениями. Утверждается, что новинка подходит, в частности, для локального инференса.

В основу устройства положена аппаратная платформа AMD. Применен процессор Ryzen AI Max+ 395 поколения Strix Halo, который содержит 16 вычислительных ядер с возможностью обработки до 32 потоков инструкций. Базовая тактовая частота составляет 3 ГГц, максимальная частота — 5,1 ГГц. В состав чипа входят графический блок Radeon 8060S с частотой до 2,9 ГГц и нейропроцессорный узел XDNA 2 NPU с производительностью 50 TOPS. Суммарное ИИ-быстродействие (с учётом ядер CPU и GPU) достигает 126 TOPS.

 Источник изображения: ASRock Industrial

Источник изображения: ASRock Industrial

Система AI Box-A395 выполнена в корпусе с размерами 200 × 100 × 232 мм, а масса составляет 2,8 кг. Устройство может нести на борту до 128 Гбайт оперативной памяти LPDDR5X-8000, а также SSD формата M.2 2242/2280 и M.2 2280 с интерфейсом PCIe 4.0 x4 (возможно формирование массива RAID 0/1). В оснащение входят сетевые адаптеры 10GbE (Marvell AQC113) и 2.5GbE (Realtek RTL8125BG), звуковой кодек Realtek ALC897, а также комбинированный контроллер Wi-Fi 7 802.11be / Bluetooth 5.4 в виде модуля М.2.

Предусмотрены два интерфейса HDMI 2.1 (7680 × 4320 пикселей, 60 Гц), два гнезда RJ45 для сетевых кабелей, два порта USB4 (40 Гбит/с, DP 2.1), один разъём USB 3.1 Type-C (10 Гбит/с, DP 2.1), два порта USB 3.1 Type-A (10 Гбит/с), два порта USB 2.0, а также стандартные аудиогнёзда на 3,5 мм. Имеется модуль TPM 2.0 для обеспечения безопасности. Заявлена совместимость с Windows 11. Диапазон рабочих температур простирается от 0 до +40 °C. Рабочая станция оснащена ручкой в верхней части корпуса для переноски.

Постоянный URL: http://servernews.ru/1138720
23.03.2026 [09:54], Руслан Авдеев

Крепкие, но нежные руки: DHL расширяет услуги логистики для ИИ ЦОД

Служба доставки DHL объявила о значительном расширении в Северной Америке логистической инфраструктуры для операторов ЦОД и гиперскейлеров. В 2026 году компания добавит 10 специальных складов общей площадью более 650 тыс. м2. Новые объекты обеспечат максимально бережное обращение с оборудованием, сервисы по конфигурации стоек и специализированную транспортировку со склада на территорию кампусов.

Тщательно контролируемое обращение с серверами, силовыми модулями и сетевым оборудованием предотвращает повреждения, способные вызвать дорогостоящие задержки поставок. Услуги по конфигурации стоек позволяют выполнять сборку и тестирование оборудования не на площадке самого ЦОД, а ещё на складе, что тоже снижает риск задержек. Наконец, аккуратная доставка со склада на территорию кампуса позволяет заказчикам избежать вызовов, связанных со сложностями при перевозке крупногабаритного и «нежного» оборудования.

 Источник изображения: DHL

Источник изображения: DHL

DHL обеспечивает критически важную логистическую поддержку, обеспечивающую строительство новых мегакампусов, помогая клиентам ускорить развёртывания объектов в соответствии с современными требованиями к строительству дата-центров. По словам DHL, гиперскейлеры создают цифровую основу эры ИИ с «экстраординарной» скоростью. Новые объекты компании создаются специально для того, чтобы строительство ЦОД могло осуществляться необходимыми темпами.

 Источник изображения: DHL

Источник изображения: DHL

Работа в режиме 24/7 и тесная интеграция подразделений DHL позволяет компании выступать «единым партнёром», координирующим глобальные потоки поставок с точным исполнением на местах. По данным компании, опросы показывают, что 85 % лиц, принимающих решения на рынке ЦОД, предпочли бы работать с единым логистическим партнёром, но только 43 % считают, что эта цель достигнута.

 Источник изображения: DHL

Источник изображения: DHL

Расширение DHL органично связано с сетью DHL Global Forwarding, обеспечивающей мультимодальные перевозки, компетенции в таможенном оформлении и обработку негабаритных и тяжёлых грузов. Это критически важно, поскольку вычислительные системы нередко поступают из-за рубежа. Со временем компания намерена расширить логистические услуги для ЦОД и в других регионах мира.

В Латинской Америке растущие инвестиции выступают драйверами спроса на бондовое хранение — складирование с таможенным контролем, безопасную транспортировку серверов и мультимодальную прокладку маршрутов для развёртывания оборудования в сжатые сроки. Также всё чаще специальные чартерные рейсы используются на маршрутах в Европе, на Ближнем Востоке и в Африке, в Азиатско-Тихоокеанском регионе (АТР), а также на пути из АТР в США.

Постоянный URL: http://servernews.ru/1138714
23.03.2026 [09:31], Сергей Карасёв

HPE представила узлы на базе NVIDIA Vera для платформы Cray Supercomputing GX5000

Компания HPE анонсировала новые решения семейства NVIDIA AI Computing by HPE, ориентированные на крупномасштабные ИИ-платформы и суперкомпьютерные системы.

О намерении использовать такие инфраструктурные продукты в числе прочих сообщили Аргоннская национальная лаборатория (ANL) Министерства энергетики США (DOE), Hudson River Trading (HRT), Корейский институт научно-технической информации (KISTI) и Центр высокопроизводительных вычислений HLRS при Штутгартском университете в Германии.

В частности, представлены новые узлы для суперкомпьютерной платформы HPE Cray Supercomputing GX5000 — blade-серверы HPE Cray Supercomputing GX240. Эти устройства могут нести на борту до 16 процессоров NVIDIA Vera (88C/176T). В одной стойке могут быть размещены до 40 узлов, что в сумме даёт 640 чипов Vera и 56 320 ядер Olympus. Реализовано жидкостное охлаждение. Система предназначена для решения наиболее ресурсоёмких вычислительных задач в области ИИ. Новые серверы появятся на рынке в следующем году.

Для платформы HPE Cray Supercomputing GX5000 также будут доступны коммутаторы NVIDIA Quantum-X800 InfiniBand, предоставляющие 144 порта с пропускной способностью до 800 Гбит/с. В этих устройствах реализованы развитые функции снижения энергопотребления.

Кроме того, HPE готовит OCP-серверы высокой плотности Compute XD700 для обучения LLM и инференса. В основу данной системы положена платформа NVIDIA HGX Rubin NVL8, а одна стойка может насчитывать до 128 ускорителей Rubin. Данное решение появится в начале 2027-го.

 Источник изображений: HPE

Источник изображений: HPE

Помимо этого, анонсирована стоечная система нового поколения NVIDIA Vera Rubin NVL72 by HPE — это флагманская ИИ-платформа, разработанная для моделей с более чем 1 трлн параметров. Конфигурация включает 36 процессоров Vera, 72 чипа Rubin, интерконнект NVIDIA NVLink шестого поколения, сетевые адаптеры NVIDIA ConnectX-9 SuperNIC и DPU NVIDIA BlueField-4. Система поступит в продажу в декабре 2026 года.

Постоянный URL: http://servernews.ru/1138701
22.03.2026 [13:10], Сергей Карасёв

Почти втрое быстрее NVIDIA H20: Huawei представила ИИ-ускоритель Atlas 350 для инференса

Компания Huawei Technologies, по сообщению газеты South China Morning Post (SCMP), представила ускоритель Atlas 350, предназначенный для ИИ-инференса. Утверждается, что в таких задачах новинка обеспечивает прирост производительности до 2,8 раза по сравнению с NVIDIA H20.

Известно, что решение Atlas 350 выполнено на чипе Ascend 950PR. Заявленная ИИ-производительность в формате FP4 достигает 1,56 Пфлопс. Показатели быстродействия в других режимах пока не раскрываются, но ранее говорилось об 1 Пфлопс в FP8. Как отмечается, Huawei использует собственную память HBM. Её объём в зависимости от конфигурации ускорителя составляет до 128 Гбайт, пропускная способность — 1,6 Тбайт/с. Прочие технические характеристики не приводятся.

Ускоритель Atlas 350 оптимизирован для предварительного заполнения (Prefill) в ходе инференса — это наиболее ресурсоёмкая фаза работы больших языковых моделей (LLM) в рамках процесса генерации контента: на данном этапе производится обработка входного запроса пользователя. Скорость выполнения предварительного заполнения напрямую влияет на показатель TTFT (Time To First Token), то есть, на время, прошедшее с момента ввода запроса до начала ответа. Таким образом, решение Atlas 350 подходит для ИИ-приложений реального времени и агентных систем.

 Источник изображения: Huawei

Источник изображения: Huawei

Huawei также заявила о планах масштабного обновления своих СХД, включая решения OceanStor Dorado и Pacific 9926 класса All-Flash. Кроме того, компания готовит платформу FusionCube A1000, которая поможет малым и средним предприятиям быстро разворачивать ИИ-системы.

«Если первая половина эпохи ИИ была сосредоточена на вычислительной мощности, то вторая половина будет определяться данными. В 2026 году Huawei продолжит модернизацию своих СХД и будет активно участвовать в крупных национальных проектах по формированию соответствующей инфраструктуры», — говорит Юань Юань (Yuan Yuan), президент подразделения по хранению данных Huawei.

Постоянный URL: http://servernews.ru/1138699
21.03.2026 [22:06], Владимир Мироненко

Supermicro выгнала сооснователя компании, попавшегося на контрабанде в Китай подсанкционного ИИ-оборудования

Компания Super Micro Computer (Supermicro), оказавшаяся в центре скандала с контрабандой подсанкционного оборудования в Китай, обрушившего её акции на треть, предприняла меры по соблюдения нормативных требований во избежание подобных случаев в дальнейшем, сообщил ресурс Bloomberg.

В пятницу Supermicro объявила о назначении ДеАнны Луны (DeAnna Luna) директором по соблюдению нормативных требований с немедленным вступлением в должность. Луна, занимавшая должность вице-президента Supermicro по вопросам глобальной торговли и соблюдения санкций, ранее работала в Intel и Teledyne.

Это назначение последовало после того, как соучредителю Supermicro и её сотруднику, а также подрядчику было предъявлено обвинение в сговоре с целью поставки передовых чипов NVIDIA в Китай, что является нарушением американского экспортного контроля. Также в пятницу вечером Supermicro сообщила, что соучредитель компании И-Шьян Лиау (Yih-Shyan Liaw) исключён из совета директоров, в котором теперь будет восемь членов.

 Источник изображения: Afif Ramdhasuma / Unsplash

Источник изображения: Afif Ramdhasuma / Unsplash

Supermicro отметила в заявлении, что предполагаемые действия обвиняемых в контрабанде её оборудования «являются нарушением политики и мер контроля за соблюдением законодательства, включая попытки обойти применимые законы и правила экспортного контроля», добавив, что компания «поддерживает надёжную программу соблюдения законодательства и привержена полному соблюдению всех применимых законов и правил США об экспортном и реэкспортном контроле».

Нынешний скандал стал новым потрясением для компании, лишь недавно справившейся с проблемами в бухгалтерском учёте, из-за которых аудиторская фирма Ernst & Young LLP отказалась от работы с Supermicro, сославшись на опасения по поводу нарушений в корпоративном управлении и прозрачности отчётности. Ситуация стала меняться к лучшему в прошлом месяце, когда компания представила более высокий, чем ожидалось, прогноз продаж.

Выручка, согласно прогнозу Supermicro, составит не менее $12,3 млрд за III квартал 2026 финансового года, заканчивающийся 31 марта, тогда как аналитики в среднем прогнозировали $10,2 млрд. Компания позиционирует себя как ключевого бенефициара развития ИИ — и добилась определённых успехов. В 2023 году её акции выросли на 246 %, хотя вскоре рост сошёл на нет. В следующем году акции выросли в цене на 7,2 %, хотя акции NVIDIA и других компаний в сфере, занимающихся ИИ показали больший рост — и упали на 4 % в 2025 году. С учётом пятничного обвала акции снизились с начала 2026 года на 30 %.

Постоянный URL: http://servernews.ru/1138691
21.03.2026 [14:28], Андрей Крупин

ИТ-холдинг Т1: только 9 % организаций в России обеспечены вычислительной инфраструктурой для ИИ

Рынок искусственного интеллекта переживает фазу стремительного роста, однако инфраструктурная база в России для масштабирования ИИ-проектов остаётся ограниченной. Об этом свидетельствует исследование ИТ-холдинга Т1, показавшее, что только 9 % отечественных организаций полностью обеспечены соответствующими вычислительными ресурсами, а 40 % компаний — частично.

Согласно представленным Т1 данным, объём российского рынка ИИ-ускорителей в 2025 году составил порядка 63 млрд руб. При этом существенная доля спроса (80 %) формируется крупнейшими корпоративными клиентами, экосистемными игроками и государственным сектором. В эквиваленте карт NVIDIA A100 в коммерческих дата-центрах используется более 10 тыс. GPU, ещё около 8 тыс. — в локальной инфраструктуре компаний.

 Источник изображения: Roman Budnikov / unsplash.com

Источник изображения: Roman Budnikov / unsplash.com

Согласно прогнозам экспертов ИТ-холдинга Т1, к 2030 году упомянутый рынок может вырасти до 257,6 млрд руб. благодаря запуску новых проектов, дооснащению действующих мощностей и расширению промышленного инференса. При этом текущая динамика такова, что рост потребления GPU-ускорителей, вероятно, будет опережать возможности производства и цепочек поставок в среднесрочной перспективе, формируя устойчивый дефицит на рынке аппаратного обеспечения для ИИ.

«После официального ухода NVIDIA российский бизнес столкнулся с необходимостью искать альтернативы, а также с ростом цен, увеличением сроков поставки и снижением качества поддержки. При этом процесс замены ИИ-ускорителей отягощается и программным слоем — оптимизация ИИ-моделей под специфическую и изолированную архитектуру новых поставщиков фактически требует переписывать их код. Для крупных корпоративных клиентов это создаёт почти запредельный порог входа. В этих условиях растёт спрос на сервисную модель без привязки к конкретному вендору, позволяющую масштабировать мощности без капитальных затрат, а также снижать санкционные и операционные риски при совмещении американских и китайских GPU. В итоге развитие отечественного рынка альтернативных ИИ-ускорителей становится ключевым фактором перехода от вынужденного импортозамещения к осознанному технологическому выбору, где главный фокус — экономика, масштабируемость и контроль над критической инфраструктурой», — поясняют в Т1 текущую ситуацию на рынке.

Постоянный URL: http://servernews.ru/1138665