Материалы по тегу: ии

12.01.2026 [14:41], Сергей Карасёв

ASRock Rack показала ИИ-сервер на базе NVIDIA HGX B300 с СЖО ZutaCore HyperCool

Компания ASRock Rack на выставке CES 2026 продемонстрировала ИИ-сервер 4U16X-GNR2/ZC, первая информация о котором была раскрыта в октябре прошлого года. Новинка создана в партнёрстве с разработчиком систем жидкостного охлаждения ZutaCore.

Устройство выполнено в форм-факторе 4U. Возможна установка двух процессоров Intel Xeon 6700E (Sierra Forest-SP) или Xeon 6500P/6700P (Granite Rapids-SP). Доступны 32 слота для модулей оперативной памяти DDR5, три разъёма PCIe 5.0 x16 для карт FHHL и два сетевых порта 1GbE на базе контроллера Intel I350-AM2.

Задействована аппаратная платформа NVIDIA HGX B300. Для отвода тепла используется система прямого жидкостного охлаждения ZutaCore HyperCool. Это двухфазное решение основано на применении специальной диэлектрической жидкости, которая не вызывает коррозии. Утверждается, что конструкция HyperCool безопасна для IT-оборудования и гарантирует сохранение работоспособности даже в случае утечки. СЖО поставляется в полностью собранном виде, что сокращает время монтажа в стойку.

Сервер 4U16X-GNR2/ZC оборудован 12 фронтальными отсеками для SFF-накопителей с интерфейсом PCIe 5.0 x4 (NVMe); допускается горячая замена. Кроме того, есть внутренний разъём для одного SSD типоразмера М.2 (PCIe 5.0 x2). За питание отвечают десять блоков мощностью 3000 Вт с сертификатом 80 Plus Titanium. Габариты машины составляют 900 × 448 × 175 мм. Отмечается, что в стандартной стойке 42U могут быть размещены до восьми подобных серверов, что обеспечивает высокую плотность вычислительной мощности для наиболее ресурсоёмких нагрузок ИИ.

Постоянный URL: http://servernews.ru/1135122
12.01.2026 [13:53], Руслан Авдеев

xAI представила тарифы Grok Business и Grok Enterprise для бизнес-пользователей

Компания xAI официально начала освоение рынка ИИ-сервисов для бизнес-пользователей. В самом конце декабря она представила два новых тарифа: Grok Business и Grok Enterprise. Предполагается, что они должны способствовать внедрению ИИ-моделей в компаниях для решения повседневных задач, причём со встроенными возможностями контроля настроек безопасности, конфиденциальности и др., сообщает Channel insider.

Таким образом xAI выходит на высококонкурентный рынок корпоративных ИИ-инструментов. Аналогичные предложения уже имеются у OpenAI, Anthropic, Google и др. Для xAI это также означает переход от сервисов для индивидуальных экспериментов к предоставлению возможностей для выполнения совместных задач.

Grok Business рассчитан на команды небольших и средних размеров и стоит $30/мес. за каждого пользователя. Предлагаются встроенные инструменты управления командами и организации общения, централизация платежей и контроль использования ПО. Другими словами, команды могут совместно работать в среде Grok, делиться результатами, а также подключать популярные инструменты вроде Google Drive, чтобы ИИ мог работать с информацией, которая уже использовалась.

Grok Enterprise имееть расширенную функциональность для более крупных организаций. Цена не разглашается, но основной акцент будет сделан на ужесточении контроля и надзора. В частности, речь идёт о поддержке единой авторизации в масштабах всей компании, автоматизированном управлении профилями пользователей и функциями безопасности, разработанными для более крупных и сложных программных сред.

В xAI утверждают, что оба плана построены с учётом необходимости обеспечивать корпоративную безопасность и конфиденциальность. Как подчёркивают в компании, корпоративная защита и конфиденциальность встроены в системы с самого начала — Grok не будет обучаться на предоставляемых клиентками данных.

 Источник изображения: xAI

Источник изображения: xAI

Одна из наиболее примечательных функций — способность Grok работать с большими массивами документов. Grok обеспечивает агентный поиск с помощью Collections API. Это позволяет ИИ-модели использовать крупные хранилища документов в качестве первоочередных источников информации. Это может быть полезным, если необходим, например, анализ юридических документов или построение финансовых моделей. В ответы могут включаться цитаты, напрямую ведущие к исходным документам, с возможностью предварительного просмотра и выделения контекста.

Для организаций со специальными требованиями к обеспечению безопасности материалов xAI предлагает вариант Enterprise Vault. Это даёт компаниям больше контроля над тем, как обрабатываются их данные, с предоставлением сопутствующей инфраструктуры, дополнительных уровней шифрования, которыми управляет сам пользователь, а не xAI. xAI утверждает, что данные зашифрованы как при передаче, так и при хранении.

Тариф Enterprise также обеспечивает соответствие строгим требованиям: обеспечено соответствие инфраструктуры и процессов стандарту безопасности SOC 2 и нормативным актам (включая GDPR и CCPA). Также в его рамках предоставляется доступ к наиболее передовыми ИИ-моделям компании Grok 3, Grok 4 и Grok 4 Heavy.

В то же время xAI продолжает наращивать инфраструктуру, необходимую для поддержки соответствующих проектов. Так, речь идёт о строительстве третьего дата-центра в штате Миссисипи (США). На днях появилась информация, что она привлекла $20 млрд на развитие бизнеса.

Постоянный URL: http://servernews.ru/1135131
12.01.2026 [12:59], Сергей Карасёв

Sapphire представила Mini-ITX-плату EDGE+VPR-7P132 с чипом AMD Ryzen AI Embedded P132 и FPGA Versal AI Edge Gen2 VE3558

Компания Sapphire Technology анонсировала плату EDGE+VPR-7P132 на платформе AMD Embedded+, предназначенную для построения различных периферийных устройств с ИИ-функциями. В новинке соседствуют процессор AMD Ryzen AI Embedded и адаптивная «система на чипе» AMD Versal AI Edge Gen 2.

Решение выполнено в форм-факторе Mini-ITX с размерами 170 × 170 мм. Задействовано FPGA-решение Versal AI Edge Gen 2 VE3558 с восемью ядрами Arm Cortex-A78AE, десятью ядрами реального времени Arm Cortex-R52, графическим блоком Arm Mali-G78AE. Программируемая часть содержит 492 тыс. логических ячеек и 225 тыс. LUT. Чип обеспечивает ИИ-производительность до 123 TOPS на операциях INT8. Есть 16 Гбайт памяти LPDDR5-4266, флеш-модуль UFS 3.1 вместимостью 256 Гбайт, интерфейс Mini DisplayPort, а также модуль TPM 2.0 (Infineon OPTIGA TPM SLM 9672) и 250-контактный коннектор для плат расширения.

CPU-секция получила процессор Ryzen AI Embedded P132 (V4526iX), который объединяет шесть ядер с архитектурой Zen 5 (12 потоков) с тактовой частотой до 4,5 ГГц, графический ускоритель AMD Radeon (RDNA 3.5) и нейропроцессорный блок с ИИ-производительностью до 50 TOPS в режиме INT8. Чип функционирует в тандеме с 64 Гбайт памяти LPDDR5-4266 (впаяна на плату). Предусмотрены коннектор M.2 Key M 2280 для SSD (PCIe 4.0 x4), слот M.2 Key E 2230 (PCIe 4.0 x1, I2S, USB 2.0) для адаптера Wi-Fi/Bluetooth и разъём OCulink x4.

 Источник изображения: Sapphire

Источник изображения: Sapphire

Плата получила два сетевых порта 10GbE, по два порта USB 3.2 Gen 2 Type-A и USB 2.0 Type-A, коннектор USB4 Type-C, четыре интерфейса Mini DisplayPort. Через внутренние разъёмы можно использовать аудиоинтерфейсы. Питание (12 В) подаётся через DC-коннектор. Диапазон рабочих температур простирается от 0 до +60 °C. Заявлена совместимость с RHEL/CentOS 7.9, RHEL 8.2-8.6 и Ubuntu 22.04. В качестве платы расширения упомянут модуль с поддержкой 12 камер для автомобильных систем и робототехники.

Постоянный URL: http://servernews.ru/1135120
12.01.2026 [09:54], Владимир Мироненко

От NVMe к GPU: NVIDIA представила платформу хранения контекста инференса ICMSP

Вместе с официальным анонсом ИИ-платформы следующего поколения Rubin компания NVIDIA также представила платформу хранения контекста инференса NVIDIA Inference Context Memory Storage Platform (ICMSP), позволяющую решить проблемы хранения KV-кеша, который становится всё крупнее по мере роста LLM и решаемых задач.

При выполнении инференса контекст растёт по мере генерации новых токенов, часто превышая доступную память ускорителя. В этом случае старые записи вытесняются из памяти, сначала в системную память, а потом на диск, чтобы не пересчитывать всё заново, когда они снова понадобятся. Проблемы существенно усугубляются при работе с агентным ИИ и обработке рабочих нагрузок с большим контекстом. Агентный ИИ приводит к появлению контекстных окон в миллионы токенов, а объём моделей может составлять уже триллионы параметров.

В настоящее время эти системы полагаются на долговременную память для хранения контекста, позволяя агентам опираться на предыдущие рассуждения и расширять их на протяжении многих шагов, а не начинать с нуля при каждом запросе. По мере увеличения контекстных окон растут требования к ёмкости KV-кеша, делая эффективное хранение и повторное использование данных, в том числе совместное использование различными сервисами инференса, крайне важными для повышения производительности системы. Контекст инференса является производным и пересчитываемым, что требует архитектуры хранения, которая отдаёт приоритет энергоэффективности и экономичности, а также скорости и масштабируемости, а не традиционной надёжности хранения данных.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

NVIDIA отметила, что ИИ-фабрикам необходим дополнительный, специально разработанный уровень контекста, который рассматривает KV-кеш как собственный класс данных, предназначенный для ИИ, а не принудительно помещает его в дефицитную память HBM или в хранилище общего назначения. Платформа ICMSP использует DPU BlueField-4 для создания специализированного уровня памяти, чтобы преодолеть разрыв между высокоскоростной памятью GPU и масштабируемым общим хранилищем. Хранилище KV-кеша на основе NVMe должно эффективно обслуживать ускорители, узлы, стойки и кластеры целиком, говорит компания.

Платформа ICMSP создаёт новый уровень (G3.5 на схеме выше) — флеш-память, подключённая через Ethernet и оптимизированная специально для KV-кеша. Этот уровень выступает в качестве долговременной агентной памяти на уровне ИИ-инфраструктуры, достаточно большой для одновременного хранения общего, развивающегося контекста многих агентов, но при этом достаточно близко расположенной для частой работы с памятью ускорителей и хостов.

BlueField-4 отвечает за аппаратное ускорение размещения кеша и устранение накладных расходов на подготовку и перемещение данных и обеспечение безопасного, изолированного доступа к ним узлов с GPU, снижая зависимость от CPU хоста и минимизируя сериализацию и работу с системной памятью хоста. Программные продукты, такие как фреймворк DOCA, механизм разгрузки KV-кеша Dynamo и входящее в комплект ПО NIXL (Nvidia Inference Transfer Library), обеспечивают интеллектуальное, ускоренное совместное использование данных KV-кеша между ИИ-узлами. А Spectrum-X Ethernet обеспечивает оптимизированный RDMA-интерконнект, который связывает ICMS и узлы GPU.

KV-кеш принципиально отличается от корпоративных данных: он является временным, производным и может быть пересчитан в случае потери. В качестве контекста инференса он не требует надёжности, избыточности или обширных механизмов защиты данных, разработанных для долговременных записей. Выделяя KV-кеш как отдельный, изначально предназначенный для ИИ класс данных, ICMS устраняет избыточные накладные расходы, обеспечивая повышение энергоэффективности до пяти раз по сравнению с универсальными подходами к хранению данных, сообщила NVIDIA. А своевременная подготовка и отдача данных более полно нагружает ускорители, что позволяет увеличить темп генерации токенов до пяти раз.

Как сообщила NVIDIA, первоначальный список её партнёров, готовых обеспечить поддержку ICMSP с BlueField-4, который будет доступен во II половине 2026 года, включает AIC, Cloudian, DDN, Dell, HPE, Hitachi Vantara, IBM, Nutanix, Pure Storage, Supermicro, VAST Data и WEKA.

Постоянный URL: http://servernews.ru/1134966
11.01.2026 [15:06], Руслан Авдеев

ИИ-облако Lambda пытается привлечь $350 млн перед выходом на IPO

Стартап Lambda Inc., предлагающий облачную ИИ-платформу, как сообщается, намерен привлечь $350 млн на развитие бизнеса и ведёт переговоры с Mubadala Capital, которая должна возглавить новый раунд инвестиций. При этом менее двух месяцев назад прошёл раунд финансирования серии E, возглавленный TWG Global, в ходе которого удалось привлечь $1,5 млрд, сообщает Silicon Angle со ссылкой на The Information.

Lambda выступает оператором дюжины дата-центров в США. Флагманским предложением является сервис Superclusters, который позволяет арендовать кластеры, имеющие до 165 тыс. ИИ-ускорителей NVIDIA. Lambda предлагает несколько поколений чипов NVIDIA, в том числе суперускорители GB300 NVL72. В скором времени обещана и доступность новейших Vera Rubin NVL72. Системы Lambda работают на кастомном пакете ПО Lambda Stack, состоящем из открытых ИИ-инструментов, которые компания оптимизировала для своего оборудования.

 Источник изображения: Lambda

Источник изображения: Lambda

Новый раунд финансирования, возможно, будет последним перед выходом компании на IPO во II полугодии 2026 года. В ноябре Lambda заключила многомиллиардный контракт с Microsoft. Согласно его условиям, Lambda предоставит гиганту из Редмонда доступ к десяткам тысяч ИИ-ускорителей. Также подписано соглашение на $1,5 млрд с NVIDIA, которая будет арендовать у Lambda свои же чипы.

Постоянный URL: http://servernews.ru/1135110
11.01.2026 [14:48], Руслан Авдеев

OpenAI инвестирует $500 млн в энергетическое подразделение SoftBank — SB Energy

OpenAI Group инвестирует $500 млн в SB Energy — это дочерняя структура SoftBank Group, занимающаяся возобновляемыми источниками энергии и дата-центрами, сообщает Silicon Angle.

Сделка предусматривает и дополнительные условия. Так, $500 млн инвестиций со стороны OpenAI удвоятся благодаря вкладу SoftBank, в результате в ходе раунда финансирования будет привлечён $1 млрд. Дополнительно SB Energy станет применять в своей внутренней деятельности сервисы OpenAI и поддержит инициативу Stargate. Партнёрство частично обусловлено тем, что SoftBank — уже крупнейший инвестор разработчика ChatGPT. В марте японская компания согласилась возглавить раунд финансирования OpenAI на $40 млрд, а в конце декабря она инвестировала не менее $22,5 млрд в своего партнёра.

SB Energy основана SoftBank в 2011 году для строительства инфраструктуры возобновляемой энергии. Сейчас компания строит два энергохранилища в Калифорнии с совокупной мощностью порядка 1,36 ГВт. По данным SB Energy, на территории одного из кампусов также будет расположен парк солнечных элементов с пиковой мощностью 570 МВт. Активную деятельность SoftBank ведёт и в Техасе. В конце 2024 года она ввела в эксплуатацию солнечную электростанцию Orion Solar Belt на 900 МВт близ Остина. Она поддерживает один из кампусов Google.

 Источник изображения: SB Energy

Источник изображения: SB Energy

При этом SB Energy не только строит энергетические объекты, но и технологическую инфраструктуру. В частности, OpenAI объявила, что подразделению SoftBank доверят строительство инфраструктуры Stargate на 1,2 ГВт в округе Майлам (Milam) в Техасе, где расположена солнечная электростанция Orion Solar Belt. На сайте SB Energy также сообщается, что компания строит в Техасе второй кампус ЦОД, но не уточняется, будет ли он использоваться OpenAI. По имеющимся данным, речь идёт об объекте мощностью более 1 ГВт.

OpenAI будет работать с SB Energy и SoftBank для разработки нового подхода к строительству дата-центров. Разработчик ChatGPT объявил, что методология объединяет оригинальный проект ЦОД от OpenAI с проверенными компетенциями SB Energy в скорости, «дисциплине затрат» и интегрированной энергетике. Речь идёт о неэксклюзивном приоритетном партнёрстве.

Помимо участия в проектах Stargate, SB Energy обеспечит использование ChatGPT своими сотрудниками и начнёт использовать API OpenAI. Кроме того, SB Energy привлекает $800 млн инвестиционной компании Ares Management для масштабирования бизнеса. Сделка с OpenAI, касающаяся SB Energy — уже второй случай инвестиций в дочернюю структуру компании, которая сама инвестировала в OpenAI. В декабре OpenAI приобрела долю в фонде Thrive Holdings. Это дочерняя структура Thrive Capital, уже инвестировавшая в OpenAI в 2025 году более $1 млрд.

Постоянный URL: http://servernews.ru/1135109
10.01.2026 [15:33], Руслан Авдеев

Крупнейшая инвестиция в истории Миссисипи — xAI потратит $20 млрд на ИИ ЦОД MACROHARDRR и смежные проекты

Компания xAI, созданная Илоном Маском (Elon Musk), подтвердила, что намерена построить третий дата-центр в Миссисипи и готова вложить в штат более $20 млрд. Это крупнейшие инвестиции в истории штата. Раннее Маск уже сообщал о строительстве в местном Саутхейвене (Southaven) ЦОД MACROHARDRR, который обеспечит дополнительные вычислительные мощности проекту Colossus, сообщает Datsacenter Dynamics.

После того, как дата-центр площадью более 75 тыс. м2 будет полностью построен, совместно с ещё одной площадкой в Миссисипи и кампусом близ Мемфиса (Memphis) он обеспечит xAI доступ к 2 ГВт вычислительных мощностей. Утверждается, что проект преобразует регион и откроет невероятные возможности целыми поколениям местных жителей. В Миссисипи рассчитывают, что штат станет одним из лидеров научно-технической революции.

xAI приобрела уже имеющееся здание, которое будет модернизировано для размещения оборудование ЦОД. Пока не сообщается, сколько именно ИИ-ускорителей будет использовать новый объект, но ранее компания заявляла, что проект Colossus в целом предполагает использование миллиона ИИ-чипов.

 Источник изображения: Gene Gallin/unsplash.com

Источник изображения: Gene Gallin/unsplash.com

Регулятор Mississippi Development Authority заявил, что одобрил льготы для xAI в рамках программы Data Center Incentive. Последняя освобождает от налога с продаж и использования всё вычислительное оборудование и программное обеспечение, используемое компаниями, сертифицированными в качестве дата-центров. Саутхейвен и округ ДеСото тоже поддерживают деятельность xAI, предлагая соглашения об уплате фиксированных взносов вместо налогов (fee-in-lieu agreements).

В штате считают, что преференции для операторов позволят конкурировать за участие в проектах вроде тех, что реализуются xAI, создавать высококачественные рабочие места и позиционировать себя как ключевой регион в центре развивающегося кластера, т.н. «Цифровой дельты» (Digital Delta). По словам Маска, xAI масштабирует бизнес «неизмеримыми» темпами и строит уже третий ЦОД в агломерации «Большого Мемфиса». MACROHARDRR позволит превратить Colossus самую производительную ИИ-систему на Земле (в данный момент).

Во вторник xAI объявила, что привлекла $20 млрд в раунде финансирования серии E. Средства, предположительно, будут потрачены именно на проект в Саутхейвене. Компания Маска, предлагающая ИИ и чат-бот Grok, также арендует оборудование у бизнеса, основанного Valor Equity Partners — с этой целью привлечены $5,4 млрд для покупки чипов NVIDIA и прочего оборудования в интересах xAI. Новый ЦОД должен заработать уже в следующем месяце.

Постоянный URL: http://servernews.ru/1135087
10.01.2026 [09:18], Руслан Авдеев

Не «пузырь», а «суперцикл» — к 2030 году на ЦОД будет потрачено $3 трлн

Согласно докладу JLL 2026 Global Data Center Outlook, до 2030 года на ЦОД потребуется $3 трлн вложений. Это крупнейший инвестиционный «суперцикл» в истории. В докладе учитываются данные рынка, региональные прогнозы и стратегические сдвиги в индустрии ЦОД.

По оценкам JLL, в 2025–2030 гг. появятся ЦОД общей мощностью около 97 ГВт. Общая мощность ЦОД достигнет примерно 200 ГВт, т.е. фактически удвоится, что потребует значительных инвестиций. Как считают в JLL, такой рост приведёт к созданию активов коммерческой недвижимости в объёме $1,2 трлн, что потребует около $870 млрд нового долгового финансирования. Кроме того, пользователи ЦОД потратят $1–$2 трлн на обновление парка ИИ-ускорителей и сетевой инфраструктуры. В совокупности инвестиции достигнут приблизительно $3 трлн к 2030 году.

Как сообщает Datacenter Dynamics, в рамках прогноза JLL среднегодовой темп прироста глобального сектора ЦОД (CAGR) составит 14 % до 2030 года. Но, например, оценка Omdia на тот же период более консервативна. Несмотря на опасения экспертов, допускающих появление «ИИ-пузыря», в JLL утверждают, что существующие метрики не свидетельствуют о его возможном формировании. JLL утверждает, что сектор сохраняет здоровые фундаментальные показатели — глобальную загрузку мощностей на уровне 97 %, а 77 % строящихся уже объектов забронированы арендаторами.

 Источник изображения: JLL Research

Источник изображения: JLL Research

Впрочем, есть и некоторые проблемы, негативно влияющие на мировой рынок ЦОД. Например, ограничения в цепочках поставок ведут к задержкам сроком выполнения заказов на оборудование по всему миру. По данным компании, среднее время выполнения достигает 33 недель, что на 50 % дольше в сравнении с 2020 годом. Кроме того, проблемы с цепочками отражаются на стоимости строительства, CAGR в этом секторе составляет 7 % ежегодно. По прогнозам JLL, в 2026 году стоимость строительства увеличится на 6 %, до $11,3 млн/МВт. Тем не менее, аналитики JLL подчёркивают, что увеличение сроков выполнения заказов свидетельствует о росте уверенности в рынке, а не о потенциальном спаде на нём.

 Источник изображения: JLL Research

Источник изображения: JLL Research

Ключевой проблемой остаются ограничения, связанные с энергетикой. Прогнозируется рост соответствующей индустрии, связанный с энергоёмкими ИИ-сервисами. В частности, время присоединения ЦОД к энергосетям на основных рынках превышает четыре года, поэтому придётся прибегнуть к «энергетическим инновациям», а некоторые операторы дата-центров стремятся организовать локальные мощности для генерации энергии.

JLL ожидает, что ключевую роль в масштабировании поставок энергии в США будет играть газовая энергетика, причём и как временное, и как постоянное решение для получения энергии непосредственно на территории кампусов. Впрочем, отмечается, что для APAC и EMEA такие решения менее привлекательны, поскольку не являются «устойчивыми». Потенциальным надёжным источником электричества называется и атомная энергетика, но в JLL признают малую вероятность того, что до 2030 года появятся новые значительные мощности АЭС.

 Источник изображения: JLL Research

Источник изображения: JLL Research

По данным JLL, на ИИ-нагрузки к 2030 году, возможно, будет приходиться половина всех мощностей ЦОД, т.е. их доля увеличится вдвое по сравнению с 2025 годом. Также прогнозируется, что к 2027 году затраты на инференс будут больше, чем на обучение, благодаря чему спрос может сместиться с централизованных кластеров на распределённые региональные центры. До 2030 года на американские проекты будет приходиться около половины всех новых мощностей ЦОД, там же будут отмечаться и самые высокие темпы прироста рынка. В Азиатско-Тихоокеанском регионе мощности почти удвоятся, с 32 ГВт до 57 ГВт к 2030 году, а EMEA прирастёт на скромные 13 ГВт.

 Источник изображения: JLL Research

Источник изображения: JLL Research

В докладе также анализируется быстрый рост на связанных с сектором рынках капитала. На базовые, с низким уровнем риска инвестиционные стратегии теперь приходится около 24 % активности по привлечению средств на ЦОД. За последние пять лет объём слияний и поглощений на рынке составил более $300 млрд и ожидается, что в будущем инвестиции сместятся в сторону рекапитализации и совместных предприятий. В компании уверены, что стремительное появление крупных сделок в сфере ИИ и неооблачного сектора определило 2025 год, как год трансформации сектора ЦОД и инфраструктуры.

Структурирование капитала для новых компаний может оказаться сложным, поскольку кредиторы и партнёры по акционерному капиталу требуют надлежащих механизмов обеспечения защиты многомиллиардных инвестиций. Масштаб и особые требования к инфраструктуре сделок требуют инноваций при финансировании, позволяющих обеспечить баланс роста технологий ИИ и неооблачных проектов с надлежащим снижением рисков. Стоит отметить, что в сентябре 2025 года Bain Global Technology Report прогнозировала, что расходы ИИ-отрасли к 2030 году могут оказаться на $800 млрд больше её доходов.

Постоянный URL: http://servernews.ru/1135035
09.01.2026 [19:23], Владимир Мироненко

Pay 'n' Pray: NVIDIA требует полную предоплату за поставку H200 в Китай

После того, как США дали NVIDIA добро на поставку ИИ-ускорителей H200 в Китай в обмен на выплату 25 % от суммы продаж, китайские компании выразили готовность приобрести у чипмейкера более 2 млн ускорителей. Это в несколько раз превышает имеющиеся запасы на складах NVIDIA. Ранее сообщалось, что NVIDIA готова отгрузить первые партии H200 в середине февраля до наступления лунного Нового года.

Китайские власти пока не дали разрешение на импорт этих чипов, но, как утверждает Bloomberg со ссылкой на проверенные источники, правительство готово уже в этом квартале разрешить приобретение H200 для отдельных коммерческих целей. При этом из-за соображений безопасности под запретом окажутся закупки чипов для военных организаций, госучреждений, объектов критической инфраструктуры и предприятий с госсобственностью.

По словам источника, власти КНР попросили некоторые китайские технологические компании приостановить на время размещение заказов на чипы H200, поскольку регуляторами пока не решено, в каком соотношении к покупке ускорителей американской компании они должны будут приобрести чипы отечественного производства.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Для NVIDIA возобновление поставок означает возврат на ключевой рынок. Генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) заявил, что спрос клиентов в Китае на чипы H200 «довольно высок» и что компания «запустила свою цепочку поставок» для наращивания производства. Хуанг отметил, что вне зависимости от официального заявления правительства Китая об одобрении, поступление заявок от китайских компаний на покупку «будет означать, что они могут размещать заказы».

По словам источников агентства Reuters, в случае с поставками H200 компания решила полностью переложить на клиентов риски, связанные с неопределённостью ситуации, потребовав полную предоплату за заказ. NVIDIA и раньше требовала предоплату, хотя могла в порядке исключения согласиться и на размещение депозита. При полной предоплате поставок, если Китай вдруг изменит решение и заблокирует импорт чипов, возврата предоплаты не будет и убытки полностью лягут на плечи китайских клиентов американской компании.

Постоянный URL: http://servernews.ru/1135056
09.01.2026 [19:01], Руслан Авдеев

Global Technical Realty (GTR) привлекла почти $2 млрд для экспансии на европейском рынке ЦОД

Оператор дата-центров Global Technical Realty (GTR), строящий объекты по всей Европе, привлёк почти $2 млрд для строительства в регионе цифровой инфраструктуры нового поколения, сообщает Datacenter Knowledge. $1,5 млрд обязалась предоставить инвестиционная компания KKR, а частная инвестиционная группа Oak Hill Capital присоединится к ней, выделив ещё порядка $400 млн, чтобы помочь GTR в строительстве новых ЦОД «под ключ».

Компания GTR была сфомирована в 2020 году при участии предпринимателя Франека Содзавичного (Franek Sodzawiczny) и KKR. Теперь она расширяет присутствие как на основных рынках дата-центров, так и на развивающихся — не только в Европе, но и за её пределами. Ранее Содзавичный основал два колокейшн-провайдера в Великобритании: Sentrum (продана Digital Realty в 2012 году за $1 млрд) и Zenium (продана CyrusOne в 2017 году за $442 млн).

По данным Datacenter Dynamics, KKR впервые объявила о намерении потратить $1 млрд на создание нового игрока рынка ЦОД гиперскейл-уровня в мае 2020 года. KKR намеревалась направить около $34 млрд собственного капитала в сферу цифровой инфраструктуры в рамках 24 инвестиций, а также вложить более $20 млрд в энергетику и возобновляемые источники энергии. Портфель компании включает пять платформ ЦОД в США, странах Азиатско-Тихоокеанского региона (АТР), а также Европы, Ближнего Востока и Африки (EMEA). В общей сложности насчитывается более 155 объектов и портфель проектов по развитию мощностей на 12 ГВт.

 Источник изображения: Global Technical Realty (GTR)

Источник изображения: Global Technical Realty (GTR)

Oak Hill и её предшественники на сегодня осуществили порядка 30 инвестиций в цифровой бизнес. Инвестиции в GTR знаменуют собой четвёртую платформенную инвестицию фирмы в сектор ЦОД. 7 января GTR объявила, что новые инвестиции KKR и Oak Hill поддержат планы её развития — строительства новых объектов с нуля и реализации новых планов в Европе для удовлетворения спроса на энергоёмкую инфраструктуру для ИИ и облачных бизнесов.

Сегодня GTR управляет «флагманским» кампусом GB One на 40,5 МВт в Лондоне, а также IS One на 10,5 МВт в Тель-Авиве. В июле 2023 года она приобрела кампус ES One близ Барселоны (Испания), находящийся недалеко от новой посадочной станции для подводного кабеля, соединяющего Европу, Северную Африку и Ближний Восток. В ноябре 2025 года GTR анонсировала планы переделки промышленной площадки на западе Лондона площадью 13 га в кампус GB Two для четырёх дата-центров. В том же месяце компания анонсировала строительство нового объекта CH One в Цюрихе (Швейцария).

Постоянный URL: http://servernews.ru/1135030