Материалы по тегу: ии

10.04.2026 [15:05], Руслан Авдеев

Девять из десяти: CoreWeave заключила с Meta✴ сделку на $21 млрд и тут же подписала контракт с Anthropic

Неооблачный провайдер CoreWeave заключил с Meta очередной крупный договор о предоставлении вычислительных мощностей для ИИ. В рамках сделки стоимостью $21 млрд Meta получит в своё распоряжение облачные ИИ-мощности до декабря 2032 года. Мощности для Meta развернут в нескольких локациях, в том числе на безе NVIDIA Vera Rubin. Дополнительно CoreWeave рассчитывает привлечь $4,25 млрд за счёт продажи облигаций для финансирования текущего строительства.

Договор опирается на уже существующее соглашение стоимостью $14,2 млрд, заключенное компаниями в сентябре 2025 года, которое предусматривало предоставление облачных сервисов до декабря 2031 года. Именно под эту сделку привлекли кредит с отложенным предоставлением средств (DDL) для покупки ИИ-серверов и сопутствующей инфраструктурой. К марту 2026 года контракт вырос с $14,2 млрд до $19,2 млрд.

Новый контракт — уже второе соглашение о предоставлении ИИ-инфрастурктуры, подписанное Meta в течение месяца, стоимостью более $20 млрд. В марте Meta заключила сделку объёмом $27 млрд с неооблачной компании Nebius, которая тоже предоставит платформу Vera Rubin. Что касается сделки с Anthropic, то деталей пока мало. Подписано многолетнее соглашение о предоставлении ИИ-мощностей для развития семейства моделей Claude, которые будут развёрнуты поэтапно, начиная с 2026 года. CoreWeave отметила, что теперь девять из десяти лидирующих разработчиков ИИ-моделей пользуются её услугами.

 Источник изображения: Adeolu Eletu/unspalsh.com

Источник изображения: Adeolu Eletu/unspalsh.com

Из привлекаемых $4,25 млрд часть приходится на облигации с погашением $1,25 млрд в 2031 году и конвертируемые, с погашением $3 млрд в 2032 году. Оба вида облигаций доступны институциональным покупателям в рамках частного размещения, без выпуска на открытый рынок. Неооблачная компания активно привлекает финансирование и из других источников. В 2026 году она уже получила $1 млрд от Morgan Stanley, упомянутый кредит на ИИ-ускорители и $2 млрд инвестиций от NVIDIA.

В сентябре 2025 года CoreWeave расширила соглашение с OpenAI на $6,5 млрд, доведя общую сумму контрактов до $22,4 млрд. В августе NVIDIA объявила о намерении выкупить все нераспроданные вычислительные мощности CoreWeave до 2032 года на сумму $6,3 млрд. Microsoft же и так была якорным заказчиком компании, хотя действовала в интересах OpenAI.

Постоянный URL: http://servernews.ru/1139798
10.04.2026 [13:53], Руслан Авдеев

Bridge Data Centres выгнала из своих ЦОД сингапурское ИИ-неооблако Megaspeed, подозреваемое в нарушении антикитайских санкций США

Подконтрольный американской инвесткомпании Bain Capital оператор ЦОД Bridge Data Centres (BDC) отказал в размещении на своём объекте в Малайзии облачному провайдеру Megaspeed из Юго-Восточной Азии, которого США подозревают в незаконном предоставлении чипов NVIDIA Китаю, сообщает Bloomberg.

Как сообщают знакомые с ситуацией источники, компанию Megaspeed International на объекте в Малайзии заменит облачный провайдер Zenlayer. Об этом свидетельствует служебная записка, направленная Bridge Data Centres своим кредиторам в феврале. Причина замены не называется, но источники сообщают, что оператор ЦОД пошёл на разрыв отношений с Megaspeed после того, как США инициировали расследование относительно структуры собственности компании, желая выяснить, не занималась ли она организацией доступа к передовым ИИ-чипам NVIDIA для Китая в нарушение американских экспортных ограничений.

Для Megaspeed одним из ключевых вопросов является судьба ИИ-серверов на основе ускорителей NVIDIA, обнаруженных на объектах Bridge Data Centres прошлой осенью. Сингапурская Megaspeed является неооблачным ИИ-провайдером, объект в Малайзии был её крупнейшим активом. Megaspeed была сформирована в 2023 году путём отделения от китайской игровой компании.

NVIDIA отказалась сообщать, известно ли ей об инциденте с участием BDC и посещали ли её представители объекты Megaspeed в последние месяцы в этом регионе. В 2025 году производитель проводил выборочные проверки Megaspeed в Юго-Восточнйо Азии. В декабре сообщалось, что компания намерена снова проверить бизнес «в ближайшем будущем». BDC объявила, что все 68,4 МВт мощности ЦОД, зарезервированные для Megaspeed, передадут облачному провайдеру Zenlayer из Лос-Анджелеса. Он специализируется на обучении ИИ-моделей.

 Источник изображения: Hongwei FAN/unspalsh.com

Источник изображения: Hongwei FAN/unspalsh.com

BDC считается одним из крупнейших операторов ЦОД в Азии, куда, по прогнозам экспертов, к 2030 году инвестируют к 2030 году около $800 млрд. Кредиты — ключевое средство финансирования масштабирования BDC, поэтому компания должна демонстрировать кредиторам стабильный приток средств от арендаторов.

Чтобы развиваться дальше, Bridge Data Centres нужны миллиарды долларов. Минувшей зимой она начала привлекать дополнительный капитал. В марте оператор ЦОД вёл переговоры о привлечении $6 млрд для выхода на рынок Таиланда, тогда же компания намеревалась удвоить существующий кредит для расширения в Малайзии до $5 млрд.

По данным Datacenter Dynamics, Megaspeed отрицает участие в любом нелегальном трафике чипов и сдаче в аренду вычислительных мощностей киатйским структурам. По словам её представителей, компания неоднократно проходила проверки со стороны американских и малайзийских властей, а также NVIDIA. Ранее она подчёркивала, что информация СМИ вводит в заблуждение, а сама компания действует строго в рамках всех правил экспортного контроля, в соответствии с самыми высокими «юридическими и этическими стандартами».

Ещё несколько лет назад сообщалось, что китайские компании нашли лазейку в законах США для доступа к передовым ИИ-ускорителям и моделям в облаках AWS и Azure, а позже появилась информация, что Alibaba и ByteDance начали тренировать передовые ИИ-модели в ЦОД Юго-Восточной Азии. Тем не менее, в начале 2026 года в США принят «Закон о безопасности удалённого доступа» (Remote Access Security Act), расширяющий действие «Закона о реформе экспортного контроля». Это позволяет федеральным властям США «ограничивать возможности иностранных противников получать удалённый доступ к технологиям, включая ИИ-чипы, через облачные вычислительные сервисы». Другими словами, китайским компаниям запрещён доступ к передовым ускорителям в ЦОД и облаках за пределами КНР.

Постоянный URL: http://servernews.ru/1139790
10.04.2026 [08:57], Сергей Карасёв

Cloud.ru сформировал неооблако для работы с ИИ

Российский провайдер облачных сервисов Cloud.ru объявил о выделении решений для работы с ИИ в отдельное бизнес-направление. Речь идёт о платформе в формате неооблака (Neocloud), в основу которой положены ускорители на основе GPU.

Отмечается, что при формировании неооблака компания Cloud.ru полагалась на свой опыт в создании ИИ-инфраструктуры и работе с различными типами GPU. По модели GPUaaS (GPU-as-a-Service) провайдер предоставляет доступ к тысячам современных ИИ-ускорителей в публичном облаке. Кроме того, допускается гибридное развёртывание с использованием частной инфраструктуры.

Неооблако предназначено для практического внедрения ИИ в бизнес-процессы. Клиентам предлагается единая управляемая среда, объединяющая инфраструктуру, данные и инструменты. Она обеспечивает полный цикл работы с большими языковыми моделями (LLM) — от разработки и обучения до инференса и эксплуатации. При этом допускается масштабирование ресурсов в соответствии с выполняемыми задачами: могут использоваться как отдельные GPU, так и целые кластеры распределённых вычислений. Инфраструктура может быть адаптирована под разные этапы жизненного цикла ИИ-моделей.

 Источник изображения: Cloud.ru

Источник изображения: Cloud.ru

«В условиях ограниченного доступа к GPU и высокой стоимости оборудования компании сталкиваются с ключевым ограничением — невозможностью гибко управлять вычислительными ресурсами. Преимущество формата Neocloud — эффективное использование графических ускорителей под разные типы нагрузок, от дообучения моделей до инференса», — говорит Cloud.ru.

В рамках неооблака предоставляются различные GPUaaS-сервисы: это, в частности, выделенные серверы и виртуализированные ресурсы под управлением Kubernetes, высокопроизводительные кластеры и пр. Для распределённого обучения используются собственная платформа Evolution Distributed Train, а также стандартные инструменты управления вычислениями. Реализованы функции проактивного мониторинга, автоматической замены отказавших узлов, перезапуска задач обучения и управления очередями. По заявлениям Cloud.ru, благодаря эффективному распределению ресурсов между задачами разного масштаба обеспечивается доступность инфраструктуры на уровне 98 %, тогда как оптимизация затрат достигает 80 %.

«Сегодня бизнесу нужна не просто возможность получить доступ к GPU, а среда, в которой можно работать с ИИ на практике — от экспериментов до масштабирования решений. По сути, облако становится базой для реализации ИИ-стратегии, позволяя закрыть весь цикл работы с моделями и не инвестировать в избыточные мощности», — подчёркивает компания.

Постоянный URL: http://servernews.ru/1139767
09.04.2026 [18:57], Руслан Авдеев

У Cloud.ru уже 29 тыс. серверов и 56 МВт мощностей в девяти ЦОД

Провайдер облачных сервисов и ИИ-решений Cloud.ru отчитался об итогах 2025 года. Выручка компании за 2025 год увеличилась на 50 % год к году, составив 76,5 млрд руб. Показатель EBITDA вырос на 71 % — до 58,0 млрд руб., а чистая прибыль — на 86 % до 14,7 млрд. Для сравнения, в 2024 году чистая прибыль была на уровне 7,9 млрд. По оценкам iKS-Consulting, Cloud.ru является лидером российского рынка облаков.

Особую роль сыграли инфраструктура и сервисы, необходимые для проектов с ИИ. Впервые их доля в общей выручке перевалила за половину и составила 54 % (41,0 млрд руб.). В 2024 году аналогичный показатель составил 47 % — 23,7 млрд руб. Основными потребителями ИИ-сервисов и соответствующей инфраструктуры стали IT-бизнесы (29 %), ретейл (12 %), финансы (10 %) и девелопмент (8 %).

По результатам 2025 года выручка от «базовых» облачных сервисов выросла на 31 %, до 35,5 млрд руб. (против 27,2 млрд руб. в 2024 году). Показатель значительно выше, чем средние темпы роста российского облачного рынка. По словам компании, спрос на ИИ-сервисы стал дополнительным драйвером роста облачного рынка, но выросло и использование базовых облачных сервисов. Утверждается, что компания успешно реализовала накопленную экспертизу в управлении инфраструктурой и созданию новых сервисов, предложив клиентам «востребованные продукты по доступной цене».

 Источник изображения: Razvan Chisu/unspalsh.com

Источник изображения: Razvan Chisu/unspalsh.com

Сообщается, что в феврале Cloud.ru получила кредитный рейтинг ruAA+ от рейтингового агентства АКРА со стабильным прогнозом. В числе прочего отмечаются сильные операционные показатели, низкая долговая нагрузка и высокий уровень рентабельности. Ключевой фактор роста по оценке АКРА — развитие ИИ-направления. Инфраструктура компании включает стойки общей мощностью 56 МВт, размещённых в девяти ЦОД. Всего на компанию приходится 43 тыс. единиц IT-оборудования, в том числе 29 тыс. серверов.

Постоянный URL: http://servernews.ru/1139724
09.04.2026 [18:05], Владимир Мироненко

OpenAI приостановила проект Stargate в Великобритании из-за дорогой электроэнергию и неподходящих законов

OpenAI приостановила проект Stargate в Великобритании, анонсированный в сентябре в партнёрстве с неооблаком Nscale и NVIDIA, поскольку нормативно-правовая среда страны и высокая стоимость электроэнергии не способствуют его реализации. Компания не отказывается от проекта Stargate UK целом, но ждёт, когда появятся «подходящие условия, которые позволят осуществить долгосрочные инвестиции в инфраструктуру», — заявил представитель OpenAI ресурсу CNBC.

CNBC отметил, что цены на промышленную энергию в Великобритании — одни из самых высоких в мире, что наряду со сложностями с получением разрешения на подключение к национальной электросети является ключевым препятствием для развития ИИ-инфраструктуры в стране. К тому же местные законодатели стремятся разработать новые правила по поводу использования защищённого авторским правом контента в ИИ-моделях. Впрочем, по словам источника, непосредственно знакомого с ситуацией, OpenAI и Nscale всё ещё ведут переговоры о будущем проекте.

В июле 2025 года OpenAI подписала меморандум о взаимопонимании (MOU) с правительством Великобритании, планируя разместить вычислительные мощности в нескольких локациях. Первый ЦОД компания хотела развернуть на территории бизнес-парка Cobalt Park в английском Ньюкасле (Newcastle), который относится к Зоне развития ИИ (AI Growth Zone). OpenAI намеревалась развернуть 8 тыс. ИИ-ускорителей в начале 2026 года, а затем увеличить их количество до 31 тыс. Этих мощностей было бы достаточно для использования ИИ-моделей OpenAI в работе критически важных государственных сервисов, в регулируемых отраслях, например, финансовой, и партнёрства в сфере национальной безопасности.

 Источник изображения: Growtika/unsplash.com

Источник изображения: Growtika/unsplash.com

В марте сообщалось, что Великобритания собиралась отложить изменения в своих правилах авторского права, которые упростили бы использование медиаконтента ИИ-компаниями, из-за возражений создателей контента. В опубликованном правительством докладе об авторском праве и ИИ было отмечено, что большинство респондентов, участвовавших в публичных консультациях, «отклонили первоначальное предпочтительное предложение: широкое исключение с возможностью отказа». «Многие отклики поступили от представителей креативных индустрий, которые опасались, что такой подход позволит генеративному ИИ учиться на их работах без компенсации и конкурировать с ними», — говорится в докладе.

Несмотря на приостановку проекта, представитель OpenAI заявил об огромном потенциале для будущего ИИ в Великобритании. «В Лондоне находится наш крупнейший международный исследовательский центр, и мы поддерживаем стремление правительства стать лидером в области ИИ», — сообщил он, добавив, что компания продолжает расширять своё присутствие в стране, а также выполнять обязательства в рамках меморандума о взаимопонимании с правительством. Примечательно, что ранее OpenAI наняла бывшего канцлера британского Казначейства для глобального расширения проекта Stargate.

Постоянный URL: http://servernews.ru/1139728
09.04.2026 [15:25], Руслан Авдеев

Synergy Research: более половины всех мощностей ЦОД в мире приходится на гиперскейлеров, а к 2031 году они займут ⅔ рынка

Согласно прогнозам Synergy Research Group, на долю операторов ЦОД из числа гиперскейлеров уже сегодня приходится около половины всех мощностей дата-центров в мире, а к 2031 году баланс окончательно изменится в пользу техногигантов.

Согласно результатам исследования Synergy Research, на долю крупных облачных провайдеров сейчас приходится 48 % мировых мощностей ЦОД, из них 60 % — собственные дата-центры, самостоятельно построенные или находящиеся в собственности гиперскейлеров. На колокейшн-ЦОД, не связанные с гиперскейлерами, приходится всего 20 % мощности, а ещё 32 % — на корпоративные объекты, расположенные на собственных территориях бизнесов различного профиля. При этом ещё в 2018 году на собственные дата-центры компаний приходилось 56 % мировой мощности ЦОД, но ситуация продолжает меняться в пользу гиперскейлеров.

Мощность в целом будет расти, чему, как ожидается, будет способствовать трёхкратное увеличение мощностей гиперскейлеров. Synergy прогнозирует, что к 2031 году на долю гиперскейлеров будет приходиться уже 67 % всех мощностей ЦОД в мире, при этом доля корпоративных площадок сократится до 19 %. Хотя доля колокейшн-объектов будет уменьшаться, их совокупная мощность, наоборот, будет расти ежегодно двухзначными темпами в процентах. Благодаря развитию рынка ИИ и размещению ИИ-ускорителей ёмкость корпоративных ЦОД тоже начнёт расти после периода стагнации, хотя их доля будет падать в среднем на пару процентов ежегодно.

 Источник изображения: Synergy Research Group

Источник изображения: Synergy Research Group

По словам Synergy Research, облачные сервисы и цифровые потребительские сервисы многие годы меняли модель использования дата-центров, а в последние три года ключевым драйвером, ускорившим изменения, стал искусственный интеллект. Хотя имеются региональные различия в использовании ЦОД, общемировой тренд — увеличение доли мощностей, контролируемых крупным игроками, включая AWS, Microsoft, Google и др. В ближайшие три года их мощности должны удвоиться, всего техногиганты планируют построить в указанный период почти 800 новых дата-центров. Кроме того, гиперскейлеры усиливают контроль и над интернет-каналами.

Как заявляется в докладе JLL, к 2030 году на ЦОД будет потрачено в мире $3 трлн — это крупнейший инвестиционный «суперцикл» в истории, 2025–2030 гг. появятся ЦОД общей мощностью около 97 ГВт. Впрочем, согласно анализу DC Byte, существуют немалые риски для этого рынка. Аналитики назвали отмечают, что всё больше проектов не доходят до стадии строительства, правительства всё больше влияют на реализацию проектов, а капитал всё активнее расходуется на ранних стадиях реализации — это повышает риски для инвесторов.

Постоянный URL: http://servernews.ru/1139702
09.04.2026 [14:00], Владимир Мироненко

SambaNova и Intel готовят гетерогенное решение для агентного ИИ — конкурента продуктам NVIDIA

SambaNova в рамках следующего этапа сотрудничества с Intel анонсировала гетерогенное аппаратное решение, которое объединяет GPU, процессоры Intel Xeon 6 и RDU SambaNova для инференса для «самых требовательных» приложений агентного ИИ. Новинка вместе с полным ИИ-стеком станет доступна во II половине 2026 года. Компании также планируют развернуть облачную ИИ-платформу.

В данном решении GPU отвечают за высокопараллельную фазу предварительного заполнения, эффективно преобразуя длинные запросы в KV-кеши, а RDU SambaNova обеспечивают высокопроизводительное декодирование с низкой задержкой. Xeon функционируют как хост-процессор для управления системой, координации задач агентного ИИ, распределения рабочей нагрузки, обработку API и т.д. Xeon также отвечает за компиляцию и запуск кода, он же проверяет результаты.

 Источник изображений: Sambanova

Источник изображений: Sambanova

По результатам измерений SambaNova, Xeon 6 обеспечивает более чем на 50 % более быстрое время компиляции LLVM по сравнению с серверными процессорами на базе Arm и до 70 % более высокую производительность векторных баз данных по сравнению с доступными решениями на базе x86. Это ускоряет создание агентов, позволяя разработчикам быстрее переходить от идеи к реализации, говорят компании.

Как отметил ресурс Data Center Dynamics, это объявление было сделано спустя месяц после того, как SambaNova представила чип SN50 для рабочих нагрузок агентного ИИ, который, по утверждению компании, в пять раз быстрее конкурентов и втрое выгоднее с точки зрения TCO. Тогда же SambaNova также объявила о «многолетнем стратегическом сотрудничестве» с Intel для предоставления «высокопроизводительных и экономически эффективных решений для ИИ-инференса для компаний, занимающихся разработкой ИИ, поставщиков моделей, предприятий и государственных организаций по всему миру».

Ранее Intel анонсировала похожую гибридную систему на базе собственных ускорителей Habana Gaudi3 и NVIDIA B200. Такого же подхода с распределением этапов инференса по разным чипам придерживается и NVIDIA в кластерах Vera Rubin, дополненных LPU Groq (вместо Rubin CPX). Основное различие между подходом Intel с SambaNova и подходом NVIDIA в том, что первый ориентируется на «более безопасный» вариант, поскольку не требует сложной базовой инфраструктуры для дезагрегированного инференса. Для заказчиков, ищущих более модульное решение стоечного масштаба, ориентированное на разделение «предварительное заполнение + декодирование», вариант Intel + SambaNova может быть более привлекательным.

Постоянный URL: http://servernews.ru/1139707
09.04.2026 [11:38], Сергей Карасёв

Цены на 30-Тбайт SSD для ЦОД за год взлетели в шесть раз — теперь они в 22,6 раз дороже HDD

Компания VDURA, специализирующаяся на программно-определяемых СХД для задач ИИ и HPC, обнародовала свежие данные Flash Volatility Index, говорящие о том, что цены на SSD корпоративного класса продолжают стремительно расти. Связано это с высоким спросом на накопители со стороны гиперскейлеров и операторов облачных платформ.

По оценкам, стоимость SSD вместимостью 30 Тбайт на базе чипов TLC NAND подскочила на 472 % в период со II квартала 2025 года по первую четверть 2026-го — с $3062 до $17 500. Иными словами, зафиксирован 5,7-кратный рост. Вместе с тем цена на SSD с чипами QLC NAND за тот же период увеличилась с $2450 до $15 121, то есть, в 6,2 раза.

Подчеркивается, что только за три недели марта — с 4 по 23 число — стоимость SSD корпоративного класса увеличившись почти на четверть. В результате, разница в цене между SSD типа QLC на 30 Тбайт и HDD аналогичной ёмкости взлетела с 4,9 раза во II квартале 2025 года до 22,6 раза в I четверти 2026-го.

 Источник изображения: VDURA

Источник изображения: VDURA

Наблюдающаяся ситуация приводит к фундаментальным изменениям экономики систем хранения типа All-Flash. В частности, VDURA с применением собственного инструмента Storage Economics Optimizer Tool проанализировала стоимость владения платформой хранения суммарным объёмом 25 Пбайт, способной обеспечивать устойчивую производительность на уровне 1000 Гбайт/с.

По ценам II квартала 2025 года такая система, выполненная исключительно на базе SSD, потребовала бы вложений в размере $9,69 млн на протяжении трёхлетнего периода. Ко II четверти 2026-го соответствующие прогнозируемые затраты выросли до $48,17 млн, то есть, примерно в пять раз. Вместе с тем развёртывание и поддержание гибридной архитектуры SSD+HDD той же вместимости с сопоставимой производительностью обойдётся в $11,37 млн. Для смягчения проблемы резкого роста стоимости SSD компания VDURA предлагает программу Flash Relief Program.

Постоянный URL: http://servernews.ru/1139683
09.04.2026 [11:24], Сергей Карасёв

Uber перенесёт рабочие нагрузки на чипы AWS Graviton и Trainium нового поколения

Компания Uber сообщила о расширении использования облачной платформы Amazon Web Services (AWS). Оператор сервисов для вызова такси и частных водителей, а также доставки еды и грузов перенесёт определённые нагрузки на чипы AWS Graviton и Trainium нового поколения. Компания уже использует Arm-процессоры Ampere в облаке Oracle.

В частности, Uber будет использовать изделия Graviton4, насчитывающие до 96 ядер, для поддержания работы своих зон обслуживания поездок (Trip Serving Zones). Соответствующая инфраструктура функционирует в режиме реального времени: каждый раз, когда пользователь заказывает поездку или доставку, система рассчитывает оптимальный маршрут, выбирает подходящего водителя и определяет время. В часы пик и при проведении крупных мероприятий создаётся огромная вычислительная нагрузка: требуются анализ миллионов возможных сценариев поездок и обработка данных о местоположении пользователей и водителей. Ожидается, что применение Graviton4 позволит сократить задержки и оптимизировать затраты, а также обеспечит необходимую масштабируемость в периоды всплеска запросов без ущерба для надёжности, доступности или безопасности.

 Источник изображения: AWS

Источник изображения: AWS

Кроме того, Uber начнёт применять ускорители Trainium3 для обучения некоторых своих ИИ-моделей, которые лежат в основе приложений вызова такси и доставки. Эти изделия оснащены 144 Гбайт памяти HBM3E, а производительность на операциях FP8 достигает 2,52 Пфлопс. ИИ-модели Uber, как отмечается, анализируют данные миллиардов поездок для выбора водителя или курьера, оценки времени прибытия и генерации рекомендаций для пользователей. Обучение ИИ в таком масштабе требует колоссальных вычислительных возможностей: решения Trainium3, как подчёркивается, способны предоставить необходимые ресурсы.

«Uber — одно из самых требовательных приложений в мире, работающих в режиме реального времени. Мы помогаем Uber обеспечивать надёжность, на которую рассчитывают сотни миллионов людей, а также внедрять ИИ-функции, определяющие будущее сервисов совместных поездок и доставки по запросу», — говорит Рич Гераффо (Rich Geraffo), вице-президент и управляющий директор AWS в Северной Америке.

Постоянный URL: http://servernews.ru/1139689
08.04.2026 [23:43], Владимир Мироненко

Supermicro начала внутреннее расследование обстоятельств контрабанды подсанкционного ИИ-оборудования в Китай

Supermicro заявила о проведении независимого расследование в связи с предъявлением в марте обвинений в контрабанде её оборудования в Китай трём лицам, связанным с компанией — соучредителю Supermicro И-Шьян Лиау (Yih-Shyan Liaw) и внешнему подрядчику Тин-Вэй Суню (Ting-Wei Sun), которые не признали вину, и генеральному директору тайваньского офиса Supermicro Руэй-Цанг Чанг (Ruei-Tsang Chang), которого правоохранительные органы не могут найти.

19 марта 2026 года Supermicro была проинформирована об обвинениях в связи с предполагаемым сговором с целью нарушения правил экспортного контроля США. Компания отметила, что незамедлительно приняла меры, и эти лица больше не имеют с ней никаких связей, добавив, что сама она не фигурирует в обвинительном заключении и не обвиняется в каких-либо правонарушениях. Сроки проведения расследования пока не установлены. Компания предоставит обновлённую информацию после завершения расследования и не намерена давать дальнейшие комментарии до этого времени.

Расследованием занимаются два независимых члена совета директоров компании: Скотт Энджел (Scott Angel), ведущий независимый директор, и Талли Лю (Tally Liu), председатель аудиторского комитета. По данным Supermicro, Скотт Энджел почти четыре десятилетия проработал в Deloitte, а Талли Лю имеет 25-летний стаж работы в качестве сертифицированного бухгалтера и ранее занимал руководящие должности в сфере внутреннего аудита. Для помощи привлекли юридическую фирму Munger, Tolles & Olson LLP (MTO) и консалтинговую компанию AlixPartners, которые будут работать в тесной координации с аудитором Supermicro, компанией BDO USA.

 Источник изображения: Michael Pohl / Unsplash

Источник изображения: Michael Pohl / Unsplash

Параллельно Supermicro начала внутреннюю проверку выполнения своей «Глобальной программы соблюдения торговых правил». Внутреннюю проверку возглавляет Итай Ху (Yitai Hu), главный юрисконсульт и старший вице-президент. ДеАнна Луна (DeAnna Luna), недавно назначенная исполняющей обязанности главного специалиста по соблюдению нормативных требований, теперь подчиняется главному юрисконсульту. Сообщается, что результаты проверки будут доведены до совета директоров.

«Supermicro стремится защищать передовые американские технологии и интеллектуальную собственность, — заявил Чарльз Лян (Charles Liang), президент и генеральный директор Supermicro. — Наша внутренняя проверка и расследование независимых директоров проводятся в соответствии с нашим обязательством обеспечивать обращение с нашими технологиями на самом высоком уровне этического и правового контроля».

Между тем, как сообщает The Register, группа американских законодателей хочет ввести дополнительные ограничения на экспорт оборудования для производства чипов, чтобы ограничить возможности Китая в сфере ИИ. Предлагаемый Закон о многостороннем согласовании контроля за технологиями в сфере аппаратного обеспечения (The Multilateral Alignment of Technology Controls on Hardware Act, MATCH) направлен на «укрепление национальной безопасности США путём устранения критических пробелов в экспортном контроле за оборудованием для производства полупроводников», к которому отнесены, например, DUV-литографы и установки криогенного травления.

Постоянный URL: http://servernews.ru/1139672

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;