Материалы по тегу: nvidia

26.02.2026 [15:14], Владимир Мироненко

И без Китая всё отлично: квартальные показатели NVIDIA превзошли ожидания благодаря растущим продажам решений для ЦОД

NVIDIA опубликовала отчёт о финансовых результатах за IV квартал и 2026 финансовый год, закончившийся 25 января 2026 года. Результаты компании превзошли ожидания Уолл-стрит. Общая выручка NVIDIA за IV финансовый квартал составила $68,13 млрд, что на 20 % больше, чем в III квартале, и на 73 % больше, чем годом ранее, превысив прогноз аналитиков, опрошенных LSEG, в размере $66,21 млрд (по данным CNBC). Скорректированная чистая прибыль на разводнённую акцию (Non-GAAP) составила $1,62 при прогнозе от LSEG в размере $1,53. Чистая прибыль (GAAP) составила $42,96 млрд или $1,76 на разводнённую акцию, тогда как годом ранее эти показатели равнялись $22,09 млрд и $0,89 соответственно.

Валовая маржа (GAAP) выросла примерно на 160 базисных пунктов по сравнению с III кварталом и достигла 75 % в отчётном квартале, что соответствует прогнозам Уолл-стрит и немного превосходит ожидания компании. NVIDIA ожидает, что в текущем квартале маржа сократится на 10 базисных пунктов. В I квартале 2027 финансового года компания также ожидает получить выручку в размере $78 млрд ± 2 % (без учёта продаж для ЦОД в Китае) при прогнозе аналитиков в размере $72,6 млрд.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

«Спрос на вычислительные ресурсы растет экспоненциально — наступил переломный момент в развитии агентного ИИ. Grace Blackwell с NVLink сегодня является лидером в области инференса, обеспечивая на порядок меньшую стоимость токена, а Vera Rubin ещё больше укрепит это лидерство», — сказал Дженсен Хуанг (Jensen Huang), основатель и генеральный директор NVIDIA. «Внедрение агентов в корпоративном секторе стремительно растет. Наши клиенты стремятся инвестировать в вычислительные мощности для ИИ — в фабрики, которые обеспечивают промышленную революцию в области ИИ и их будущий рост», — добавил он.

Более 91 % продаж компании приходится на сегмент решений для ЦОД, выручка которого составила $62,3 млрд, что на 75 % больше год к году, а также превысило ожидания аналитиков в $60,69 млрд, согласно данным StreetAccount. В этом сегменте выручка от поставки решений для вычислений выросла на 58 % год к году до $51,33 млрд, а выручка от продаж сетевого оборудования увеличилась за квартал на 263 % до $10,98 млрд. Финансовый директор Колетт Кресс (Colette Kress) объяснила быстрый рост бизнеса «продолжающимся наращиванием вычислительной инфраструктуры NVLink для систем GB200 и GB300, а также развитием платформ Ethernet и InfiniBand».

NVIDIA отметила, что гиперскейлеры «остаются нашей крупнейшей категорией клиентов», на которые приходится чуть более 50 % выручки в сегменте решений для ЦОД. Колетт Кресс также заявила, что, хотя администрация США одобрила поставки «небольших объёмов» чипов H200 для китайских клиентов, а Китай формально разрешил закупки, компания пока не получила от них никакой выручки. «Мы не знаем, будет ли разрешён какой-либо импорт в Китай», — сказала Кресс. Это заявление в корне отличается от её сообщения в прошлом месяце о скорых поставках в КНР и о том, что власти США «лихорадочно работают» над уточнением деталей соглашения о разделе доходов.

«Чтобы сохранить свои лидирующие позиции в области вычислительных мощностей для ИИ, Америка должна взаимодействовать с каждым разработчиком и быть предпочтительной платформой для каждого коммерческого предприятия, включая предприятия в Китае, — сказала она. — Мы продолжим взаимодействовать с правительствами США и Китая и отстаивать способность Америки конкурировать на мировом рынке».

Среди других направлений деятельности NVIDIA, выручка от игрового бизнеса за IV финансовый квартал выросла год к году на 47 % до $3,7 млрд, хотя и уменьшилась на 13 % по сравнению с предыдущим кварталом. Автомобильное и робототехническое подразделение компании увеличило продажи год к году на 6 % до $604 млн, что ниже ожиданий аналитиков в $654,8 млн, согласно данным StreetAccount. В сегменте профессиональной визуализации продажи выросли на 159 % до $1,3 млрд, значительно превысив прогноз аналитиков в $755,4 млн, согласно данным StreetAccount.

По итогам за 2026 финансовый год выручка NVIDIA составила $215,94 млрд, что на 65 % больше, чем годом ранее. Валовая маржа (GAAP) составила 71,1 % против 75,0 % годом ранее (падение — 3,9 п.п.). Чистая прибыль (GAAP) равна $120,07 млрд или $4,9 на разводнённую акцию против $72,88 млрд (рост 65 %) или $2,94 на разводнённую акцию годом ранее.

Постоянный URL: http://servernews.ru/1137452
25.02.2026 [11:55], Сергей Карасёв

Akash Systems начала поставки первых в мире GPU-серверов с алмазным охлаждением

Компания Akash Systems, базирующаяся в Сан-Франциско (Калифорния, США), объявила о начале поставок первых в мире ИИ-серверов, оснащённых системой алмазного охлаждения Diamond Cooling. Заказчиком выступил NxtGen AI PVT Ltd — крупнейший в Индии государственный облачный провайдер.

Технология Diamond Cooling основана на применении синтетических алмазов. Этот материал обладает самой высокой теплопроводностью из всех известных соединений. Akash Systems подчёркивает, что синтетические алмазы способны отводить тепло от чипов в пять раз эффективнее по сравнению с медью, что открывает качественно новые возможности в плане охлаждения современного оборудования высокой плотности для дата-центров, ориентированных на задачи ИИ и НРС.

 Источник изображения: Akash Systems

Источник изображения: Akash Systems

Akash Systems поставляет серверы на базе NVIDIA H200, для охлаждения которых применяется система Diamond Cooling. В отличие от стандартных ЦОД, оборудование в которых функционирует при температурах от +24 до +29 °C, серверы с технологией Diamond Cooled способны обеспечивать максимальную производительность при температуре окружающей среды до +50 °C. Благодаря этому снижаются общие требования к системам охлаждения дата-центров, что позволяет уменьшить эксплуатационные расходы.

 Источник изображения: Akash Systems

Источник изображения: Akash Systems

Среди одного из ключевых преимуществ Diamond Cooling разработчики называют устранение теплового троттлинга: это обеспечивает наилучшее быстродействие при выполнении ресурсоёмких задач, таких как обучение больших языковых моделей (LLM) и инференс. Кроме того, достигается повышение производительности (Флопс/Вт) до 15 % на каждый сервер. Плюс к этому существенно сокращается общее энергопотребление ЦОД, поскольку отпадает необходимость в интенсивном охлаждении.

«Система Diamond Cooling решает две самые сложные проблемы в гонке ИИ — повышение энергоэффективности и сокращение капиталовложений. В ситуации, когда увеличение вычислительной мощности на 1–2 % имеет большое значение, повышение на 15 % фактически меняет правила игры», — говорит доктор Феликс Эджекам (Felix Ejeckam), соучредитель и генеральный директор Akash Systems.

Постоянный URL: http://servernews.ru/1137363
20.02.2026 [22:30], Владимир Мироненко

Не $100 млрд, а $30 млрд, и не выиграл, а переиграл — NVIDIA и OpenAI готовят новую инвестиционную сделку

Многолетняя сделка между NVIDIA и OpenAI, в рамках которой производитель ИИ-ускорителей обязался инвестировать в разработчика ИИ-моделей $100 млрд, так и не была подписана. Вместо неё компании готовят более простую схему с инвестициями NVIDIA в акционерный капитал OpenAI в размере $30 млрд в обмен на её акции, сообщил ресурс The Financial Times.

По данным источников The Financial Times, переговоры по этому поводу находятся на завершающей стадии, решение может быть принято уже в эти выходные. Инвестиции NVIDIA в акционерный капитал OpenAI в размере $30 млрд являются частью более крупного раунда финансирования, который, как ожидается, позволит OpenAI привлечь более $100 млрд с оценкой её рыночной стоимости в $730 млрд, не считая новых средств, сообщили источники.

OpenAI реинвестирует большую часть нового капитала в оборудование NVIDIA, но компании откажутся от прежней сделки на $100 млрд, о которой было объявлено в сентябре, добавили источники. По словам источников, это финансирование поддержит создание новых вычислительных мощностей и, вероятно, со временем приведет к заключению новых сделок. Как отметил ресурс eWeek, на практике ничего не поменяется: OpenAI по-прежнему нуждается в огромных вычислительных мощностях, а NVIDIA по-прежнему находится в центре цепочки поставок оборудования, обеспечивающей работу современной экономики ИИ. Меняется лишь то, как формируются риски, сроки и обязательства.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Ранее руководители OpenAI и NVIDIA попытались развеять слухи об охлаждении отношений между их компаниями в связи с замораживанием сделки на $100 млрд. «Нам нравится работать с NVIDIA, и они производят лучшие в мире чипы для ИИ. Мы надеемся оставаться их ключевым клиентом очень долгое время», — заявил генеральный директор OpenAI Сэм Альтман (Sam Altman). Следом глава NVIDIA Дженсен Хуанг (Jensen Huang) заявил CNBC, что любые предположения о «спорах» — это «ерунда». «Нам нравится работать с OpenAI», — сказал он. Тем не менее, OpenAI подписала в начале года крупную сделку с Cerebras и уже начала использовать её царь-чипы. Кроме того, у OpenAI есть и сделка с AMD.

По словам источников The Financial Times, OpenAI также находится на заключительном этапе переговоров с SoftBank по поводу инвестиций около $30 млрд, и Amazon, которая может инвестировать до $50 млрд в рамках более широкого партнёрства, предполагающего использование ИИ-моделей GPT. Ожидается, что MGX, государственный инвестиционный фонд Абу-Даби в сфере технологий, и Microsoft также инвестируют крупные суммы, а руководители OpenAI на этой неделе встречаются с венчурными капиталистами и другими инвесторами по поводу дальнейших инвестиционных проектов, добавили источники.

Постоянный URL: http://servernews.ru/1137200
19.02.2026 [09:52], Владимир Мироненко

Американская «Миссия Генезис» будет во многом полагаться на «ненастоящие» FP64-вычисления

Хотя последнее поколение GPU ориентировано на вычисления с более низкой точностью, которые предпочтительны для ИИ-задач, FP64-вычисления с более высокой точностью по-прежнему «очень важны» для «Миссии Генезис» (Genesis Mission) и её цели — ускорения научных открытий с помощью ИИ, заявил заместитель министра энергетики США по науке и инновациям Дарио Гил (Darío Gil) в интервью HPCwire.

«В ходе обсуждений, которые я провел как с [генеральным директором AMD] Лизой Су (Lisa Su), так и с [генеральным директором NVIDIA] Дженсеном [Хуангом] (Jensen Huang), они выразили твёрдую приверженность FP64, подтвердив, что поддержка формата будет продолжаться, — сказал Гил. — Для нас это очень важно, потому что мы не рассматриваем это как замену. Это взаимодополняющие технологии». Он отметил, что для обеспечения вычислительных задач моделирования и симуляции, которые традиционно составляют основу научных вычислений, а также для новых методов ИИ, важно иметь высокопроизводительное оборудование.

Гил добавил, что эти два типа вычислений будут работать вместе, чтобы поддержать цель миссии Genesis — расширение границ науки и техники на основе ИИ-технологий. «У вас есть высокоточные симуляционные коды, работающие с FP64. После проверки вы используете их в качестве основы для генерации примеров, на которых вы обучаете суррогатную модель, которую затем запускаете на ИИ-суперкомпьютере, — рассказал Гил. — В итоге вы получаете преимущества с точки зрения производительности и времени решения, часто в 10, 20, 100 раз».

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Он отметил, что благодаря использованию ИИ-моделей можно получить громадное повышение производительности, но оно зависит от сохранения всего цикла работ, состоящего из экспериментов, моделирования и обучения. «Если вы разорвёте этот цикл и скажете, что у вас больше нет кодов моделирования, то возникнет проблема», — сказал Гил. «Для нас это имеет фундаментальное значение, не только для устаревших кодов, которые мы должны сопровождать и которые так важны для миссии, но и для обеспечения рабочего ИИ-процесса. Поэтому для нас очень важно поддерживать различные архитектурные подходы», — добавил он.

В HPC-сообществе возникла обеспокоенность по поводу отсутствия прироста производительности для FP64 в новейших GPU. Напомним, что чип NVIDIA H100, выпущенный в 2022 году, обеспечивает 67 Тфлопс в формате FP64 на тензорных ядрах (34 Тфлопс в векторных вычислениях), в то время как B200 предлагает лишь 37 Тфлопс, а B300 — всего лишь 1,3 Тфлопс. Программная эмуляция FP64-вычислений на тензорных ядрах Blackwell позволяет получить «нечестные» 150 Тфлопс, а из новейших Rubin она позволяет «выжать» 200 Тфлопс. При этом пиковая заявленная производительность векторных FP64-вычислений у Rubin составляет лишь 33 Тфлопс, т.е. нет никакого прироста в сравнении с Hopper.

Отметим, что в AMD раскритиковали такой подход, заявив, что он эффективен не для всех сценариев и поэтому такое решение ещё не готово к широкому применению. В свою очередь, эксперты предупреждают, что смещение фокуса производителей на выпуск чипов для ИИ-нагрузок, которые отлично работают с вычислениями с низкой точностью, может привести к дефициту чипов с поддержкой FP64 для HPC, а это грозит потерей лидерства США в этом сегменте рынка.

По мере того, как NVIDIA наращивает мощность для выполнения ИИ-задач с низкой точностью вычислений Rubin, компания будет всё больше полагаться на cuBLAS, библиотеку стандартных математических операций CUDA-X, которая эмулирует вычисления с двойной точностью на тензорных ядрах, чтобы постоянно наращивать показатели FP64-производительности. «Мы пытаемся предоставить эти возможности среде разработчиков, чтобы они могли… получить необходимую точность FP64», — заявил в декабре HPCwire Дион Харрис (Dion Harris), старший директор NVIDIA по ИИ/HPC-решениям для гиперскейлеров.

 NVIDIA GPU simulation performance

NVIDIA GPU simulation performance

Методы эмуляции NVIDIA основаны на схеме Озаки (Ozaki), позволяющей выполнять умножение матриц с высокой точностью, используя многократные вычисления с низкой точностью на тензорных ядрах. NVIDIA утверждает, что использование алгоритма Озаки оправдано, поскольку увеличение производительности FP64 путём добавления большего количества ядер CUDA фактически не повысит общую производительность HPC-приложений, но сделает чипы менее гибкими. По словам компании, анализ реальных нагрузок показывает, что «наивысшая устойчивая производительность FP64 часто достигается на умножении матриц». В Hopper для этого были отдельные аппаратные блоки, но в Blackwell и в Rubin NVIDIA больше опирается на эмуляцию.

В то же время, производительность векторных FP64-вычислений остаётся критически важной для научных приложений, в которых не доминируют матричные ядра, признаёт NVIDIA, однако тут же утверждает, что в этих случаях производительность ограничивается перемещением данных через регистры, кеши и HBM, а не непосредственно вычислительными ресурсами. Поэтому сбалансированная конструкция GPU «обеспечивает достаточное количество ресурсов FP64 для насыщения доступной пропускной способности памяти, избегая избыточного выделения вычислительной мощности, которая не может быть эффективно использована». Иными словам, компания ничего менять не собирается.

Проект Genesis Mission, вероятно, будет создавать разнообразные ИИ-приложения для научных и инженерных задач, и каждое из них, скорее всего, будет иметь несколько иные вычислительные потребности. Достигли ли NVIDIA и AMD оптимального баланса, используя вычислительные ядра для матричных вычислений и опираясь на эмуляцию Озаки для FP64, ещё предстоит выяснить, пишет HPCwire.

Постоянный URL: http://servernews.ru/1137075
18.02.2026 [18:50], Владимир Мироненко

Власти Индии закупят ещё 20 тыс. ускорителей NVIDIA для ускорения развития ИИ в стране

На проходящем в Нью-Дели саммите India AI Impact Summit министр электроники и информационных технологий Индии Ашвини Вайшнау (Ashwini Vaishnaw) заявил, что Индия расширит свои вычислительные мощности для ИИ-нагрузок свыше имеющихся 38 тыс. ускорители, добавив еще 20 тыс. еди. в ближайшее время в рамках программы «Миссия ИИ 2.0». Вайшнау сообщил ресурсу EE Times, что заказы на новые GPU будут размещены в течение недели, и ожидается, что они будут развёрнуты в течение следующих шести месяцев.

Расширение вычислительных мощностей происходит в ходе реализации рамочного соглашения между Индией и США на 2026 год, в соответствии с которым две страны договорились значительно увеличить торговлю технологическими продуктами, включая ускорители и другие компоненты для ЦОД. Соглашение предусматривает намерение Индии закупить в течение пяти лет американские энергоносители, самолёты, технологические товары и критически важные материалы на сумму $500 млрд, расширяя при этом совместное технологическое сотрудничество.

Заявление Вайшнау говорит о дальнейшем развитии программы IndiaAI Mission, утверждённой в марте 2024 года с бюджетом около $1,14 млрд на пять лет. Первоначально программой планировалось развёртывание 10 тыс. GPU, но их количество уже достигло 38 тыс. Ускорители предоставляются местным компаниям по субсидированной ставке ₹65/час (около $0,72/час).

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

С момента запуска в рамках программы IndiaAI Mission разрабатывались семь основных направлений, включая субсидированные вычислительные ресурсы, разработку базовых моделей, финансирование стартапов и безопасное управление ИИ. Двенадцать стартапов уже были отобраны для разработки отечественных многомодальных базовых моделей с использованием специфических для Индии наборов данных.

NVIDIA сообщила о поддержке приоритетов IndiaAI Mission, включая, расширение вычислительных мощностей благодаря поставке ускорителей NVIDIA, разработку передовых ИИ-моделей и исследования и инновации в области ИИ. В рамках программы IndiaAI Mission компания сотрудничает с поставщиками облачных услуг Yotta, L&T и E2E Networks для создания передовых ИИ-фабрик.

Yotta — поставщик облачных услуг, создающий крупномасштабную суверенную ИИ-инфраструктуру для Индии под брендом Shakti Cloud, работающую на базе более чем 20 тыс. ускорителей NVIDIA Blackwell Ultra. Его кампусы в Нави Мумбаи (Navi Mumbai) и Большой Нойде (Greater Noida) предоставляют индийским предприятиям и госсектору услуги облачных ИИ-сервисов с высокой пропускной способностью и большим количеством GPU с оплатой по мере использования.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В свою очередь, компания E2E Networks создаёт кластер ускорителей NVIDIA Blackwell на своей платформе TIR, размещённый в ЦОД L&T Vyoma в Ченнаи (Chennai). Облачная платформа TIR будет включать системы NVIDIA HGX B200 и корпоративное ПО NVIDIA, а также открытые модели NVIDIA Nemotron для ускорения развития ИИ в таких областях, как агентный ИИ, здравоохранение, финансы, производство и сельское хозяйство.

Третий индийский партнёр NVIDIA на ИИ-рынке — компания Netweb Technologies, которая запускает суперкомпьютерные системы Tyrone Camarero AI, построенные на узлах NVIDIA GB200 NVL4, произведённых в рамках государственной программы «Сделано в Индии».

Сообщается, что облачная ИИ-инфраструктура в Индии будет размещать рабочие нагрузки, а также обеспечивать интеллектуальные возможности для обучения моделей, тонкой настройки и масштабного инференса. Мощности в этих ЦОД будут зарезервированы для разработчиков моделей, стартапов, исследователей и предприятий для создания, тонкой настройки и развёртывания ИИ в Индии. Ранее глава OpenAI Сэм Альтман (Sam Altman) заявил, что Индия способна стать одним из мировых ИИ-лидеров, особенно в создании малых рассуждающих моделей (SLM).

Постоянный URL: http://servernews.ru/1137053
18.02.2026 [09:19], Сергей Карасёв

Meta✴ развернёт ИИ-инфраструктуру на «миллионах ускорителей NVIDIA Blackwell и Rubin», а также Arm-чипах Grace

Компании NVIDIA и Meta объявили о многолетнем стратегическом партнёрстве, охватывающем локальную, облачную и ИИ-инфраструктуры. В частности, Meta будет использовать в своих дата-центрах решения NVIDIA как для обучения больших языковых моделей (LLM), так и для инференса.

Сообщается, что Meta возьмёт на вооружение чипы NVIDIA Grace, которые будут использоваться в серверах, основанных исключительно на CPU-архитектуре (без ускорителей на основе GPU). Изделия Grace, напомним, объединяют 72 вычислительных ядра Armv9 Neoverse V2 (Demeter) с тактовой частотой до 3,35 ГГц и до 480 Гбайт памяти LPDDR5x. Доступна также сборка Grace Superchip, которая состоит из двух кристаллов Grace и чипов памяти LPDDR5x общим объёмом до 960 Гбайт.

Meta намерена применять изделия Grace для решения общих задач, а также поддержания работы ИИ-агентов, которым не требуются ИИ-ускорители. Вице-президент NVIDIA Иэн Бак (Ian Buck) отмечает, что решения Grace способны обеспечить вдвое большую производительность на 1 Вт при выполнении операций общего назначения по сравнению с альтернативными платформами. В дальнейшем Meta планирует использовать Arm-процессоры NVIDIA следующего поколения — решения Vera. Крупномасштабные развёртывания систем на базе Vera намечены на 2027 год, что поможет Meta в развитии энергоэффективных вычислений и формировании широкой экосистемы Arm.

 Источник изображения: ***

Источник изображения: Meta

Кроме того, в рамках партнёрства Meta будет использовать «миллионы ускорителей NVIDIA Blackwell и Rubin». Так, на основе изделий NVIDIA GB300 компании создадут единую среду, охватывающую локальные дата-центры и облачные ресурсы, что позволит упростить операции при одновременном улучшении производительности и масштабируемости. Среди прочего Meta будет применять сетевую платформу NVIDIA Spectrum-X Ethernet и технологию NVIDIA Confidential Computing для защиты данных.

«Мы рады расширить партнёрство с NVIDIA с целью создания передовых кластеров на основе платформы Vera Rubin — это позволит предоставить персональный суперинтеллект каждому человеку в мире», — говорит Марк Цукерберг (Mark Zuckerberg), основатель и генеральный директор Meta. Нужно отметить, что среди гиперскейлеров только Meta и Oracle используют в своих инфраструктурах сторонние чипы с архитектурой Arm. В то же время AWS, Google и Microsoft развивают собственные Arm-проекты — изделия Graviton, Axion и Cobalt соответственно.

Постоянный URL: http://servernews.ru/1137027
14.02.2026 [12:45], Владимир Мироненко

NVIDIA арендует «подсудный» ЦОД, строящийся на средства от продажи «мусорных» облигаций

NVIDIA собирается арендовать дата-центр, который будут строить на средства, полученные от продажи «мусорных» облигаций (junk bond — высокодоходные ценные бумаги компании с кредитным рейтингом ниже инвестиционного уровня или без рейтинга), сообщил Bloomberg со ссылкой на информированные источники. NVIDIA не смущает даже то, что этот проект был предметом судебных разбирательств на протяжении всего 2025 года. Согласно документам, с которыми ознакомилось агентство Bloomberg, договор аренды NVIDIA рассчитан на 16 лет с возможностью продления ещё на два периода по 10 лет каждый.

Речь идёт о кампусе мощностью 200 Вт, строящемся компанией Fleet Data Centers, входящей в состав Tract Capital, в округе Стори (штат Невада). Fleet Data Centers продаст облигации на сумму $3,8 млрд для финансирования части строительства ЦОД. Сообщается, что в четверг объём сделки по облигациям был увеличен на $150 млн, что свидетельствует о высоком спросе. По словам источников, обсуждается возможность получения доходности около 6​%. Из-за низкого рейтинга, обуславливающего высокий риск, связанный с покупкой таких ценных бумаг, продавец вынужден повышать доходность, чтобы привлечь покупателей.

 Источник изображения: İsmail Enes Ayhan/unsplash.com

Источник изображения: İsmail Enes Ayhan/unsplash.com

Fleet Data Centers была основана в январе 2026 года с целью создания крупномасштабных кампусов с приоритетом на проекты с одним заказчиком мощностью 500 МВт и более, сообщил Data Center Dynamics. Fleet 1 — это первый фонд компании, созданный в рамках SV RNO Property Owner 1. Ожидалось, что Fleet 1 внесет в проект около $620 млн, а средства от продажи облигаций в размере $3,8 млрд будут использованы для финансирования строительства. Как сообщает Bloomberg, средства от дополнительного заёмного капитала по облигационной сделке будут использованы для уменьшения суммы собственного капитала Fleet 1. В сделке также участвуют JPMorgan Chase & Co., возглавляющая сделку, совместно с Morgan Stanley и другими банками.

В состав Tract Capital входит компания Tract, базирующаяся в Колорадо и основанная бывшим генеральным директором Cologix Грантом ван Ройеном (Grant van Rooyen). Tract приобретает, зонирует, получает разрешения и развивает «комплексно спланированные» кампусы ЦОД. Компания объявила о планах по развитию территории в округе Стори в октябре 2023 года, а в июне 2024 года приобрела дополнительные участки земли, в результате чего общая площадь её земельных владений в этом регионе превысила 4,45 га.

Проект стал предметом судебного спора со Switch из-за его близости к её кампусу. Согласно соглашению Switch с властями, в этом районе запрещается строительство колокейшн-ЦОД. Tract утверждает, что строящийся ЦОД представляет собой объект для одного арендатора, облачного клиента или оптовой продажи мощностей, и, следовательно, не нарушает условий соглашения.

NVIDIA управляет собственными ЦОД, а также арендует вычислительные мощности у облачных провайдеров, таких как AWS и Microsoft Azure. Компания также заключила соглашения аренды с неооблаками, включая CoreWeave и Lambda.

Постоянный URL: http://servernews.ru/1136860
11.02.2026 [13:38], Руслан Авдеев

Армения получит ещё 41 тыс. NVIDIA GB300 для ИИ ЦОД Firebird за $4 млрд

Американская компания Firebird, специализирующаяся на облачных и инфраструктурных решениях для ИИ, объявила о реализации второго этапа суперкомпьютерного мегапроекта в Армении. Она получила экспортные лицензии США и разрешения регуляторов на поставку в страну ещё 41 тыс. ускорителей NVIDIA GB300, сообщает HPC Wire.

Расширение вычислительного кластера в Армении знаменует собой важную веху. Предполагается, что страна войдёт в пятёрку мест размещения крупнейших кластеров ИИ-ускорителей. Проект стоимостью $4 млрд — одно из крупнейших капиталовложений в технологическую сферу в истории страны. Подробности в ходе визита в Ереван раскрыл вице-президент США Джей Ди Вэнс (JD Vance) при участии вице-президента NVIDIA. По словам Вэнса, США «с гордостью» одобрили замечательное техническое соглашение с NVIDIA. Речь идёт об открытии новых рынков и новых рабочих мест как для американских работников, так и для армянских.

 Источник изображения: Firebird

Источник изображения: Firebird

8 августа прошлого года Армения и США подписали меморандум в сфере ИИ и полупроводников. Выданная США экспортная лицензия свидетельствует о том, что проект полностью соответствует американским требованиям. Второй этап — продолжение реализации плана Firebird, выделившей $500 млн на создание в Армении первого ИИ-кластера. Реализация двух этапов обеспечит качественный скачок в технологической инфраструктуре страны. Он позволит проводить исследования в биологии, робототехнике, космической сфере и в сфере ИИ нового поколения. По словам представителей Firebird, новый кластер превращает Армению в глобальный центр суперкомпьютерных вычислений.

Постоянный URL: http://servernews.ru/1136668
11.02.2026 [08:42], Руслан Авдеев

Австралийское неооблако Firmus привлекло $10 млрд в кредит для строительства ИИ-фабрик Project Southgate

Австралийский неооблачный провайдер Firmus привлёк в кредит $10 млрд. Главными участниками кредитного соглашения стали инвестиционные компании Blackstone и Coatue, сообщает Datacenter Dynamics. По словам Firmus, финансирование позволит развернуть ИИ-фабрики на основе эталонной архитектуры NVIDIA по всей Австралии. Новый план — часть проекта Southgate, реализуемого Firmus в рамках стратегического партнёрства с CDC Data Centres и NVIDIA. Firmus была основана в 2019 году и поначалу специализировалась на криптовалютах и HPC, а также системах иммерсионного охлаждения.

Неооблачная компания заявила, что речь идёт об одной из «крупнейших частных сделок по привлечению заёмных средств» за всю историю Австралии. Представитель Blackstone сообщил, что инструменты, стоящие за революцией в сфере ИИ — одно из наиболее перспективных инвестиционных направлений, и Австралия сможет сыграть центральную роль в развитии ИИ-инфраструктуры. Firmus подчеркнула, что благодаря Blackstone и Coatue она поможет удовлетворить растущий спрос на вычислительные мощности для ИИ в мире и создать долгосрочные выгоды как для клиентов, так и для местной экономики в целом. Стоит отметить, что Blackstone владеет крупным региональным оператором ЦОД AirTrunk.

 Источник изображения: Firmus

Источник изображения: Firmus

Firmus впервые упомянула Project Southgate в сентябре 2025 года в описании ИИ-кампуса в городе Лонсестон (Launceston, Тасмания). На тот момент компания заявляла, что совместный с правительством Тасмании проект к 2026 году обеспечит создание ИИ-инфраструктуры мощностью 90 МВт. Месяцем позже Firmus сообщила, что проекта расширят и на материковую Австралию при содействии CDC Data Centres. Предполагается развёртывание дополнительных объектов в Сиднее, Канберре, Мельбурне и Перте.

В ноябре 2025 года сообщалось о привлечении для Project Southgate AU$500 млн ($351 млн). В последнем заявлении Firmus объявила о строительстве нескольких ИИ-фабрик в Австралии, где планируется развернуть тысячи ИИ-ускорителей — общая мощность к 2028 году должна достигнуть 1,6 ГВт. Каждая ИИ-фабрика будет учитывать современные требования к энергоэффективности и параметрам генерации токенов, чтобы удовлетворять потребности самых требовательных клиентов со всего мира. Подчёркивается, что Австралия имеет конкурентоспособный «энергетический профиль» и квалифицированные кадры.

Постоянный URL: http://servernews.ru/1136620
10.02.2026 [13:01], Руслан Авдеев

Tower Semiconductor и NVIDIA объединились для создания 1,6-Тбит/с трансиверов на основе кремниевой фотоники

Tower Semiconductor объявила, что работает с NVIDIA над созданием оптических модулей, предназначенных для ИИ-инфраструктуры нового поколения и способных передавать данные со скоростью до 1,6 Тбит/с. Для этого будет применяться производственная платформа Tower Semiconductor для кремниевой фотоники (SiPho), сообщает Converge! Digest.

Взаимодействие ориентировано на обеспечение высокоскоростных оптических подключений в комбинации с сетевыми протоколами NVIDIA. Tower Semiconductor объявила, что её платформа SiPho может обеспечивать показатели вдвое лучшие, чем предыдущие решения на основе кремниевой фотоники, для обучения ИИ и инференса. Компания позиционирует свою технологию производства как основу для оптических трансиверов и сетевых компонентов, используемых в крупных ЦОД, где оптические решения всё активнее заменяют электрические кабели и применяются на более коротких расстояниях.

 Источник изображения: Igor Omilaev/unsplash.com

Источник изображения: Igor Omilaev/unsplash.com

По словам Tower Semiconductor, компания продолжает инвестиции в кремний-германиевые решения (SiGe) и кремниевую фотонику в целом. ИИ-решения уже требуют внедрения 800G-интерконнектов, поэтому нужны готовые технологии на основе кремниевой фотоники для выпуска 1,6-Тбит/с решений.

Стоит отметить, что в декабре 2025 года появилась новость о том, что NVIDIA в рамках своей стратегии развития зарезервировала крупные объёмы продукции у ключевых поставщиков EML-лазеров, что привело к увеличению сроков их поставки другим клиентам — не ранее 2027 года. В связи с этим производители оптических модулей и облачные провайдеры вынуждены заниматься поиском вторичных поставщиков и альтернативных решений.

Постоянный URL: http://servernews.ru/1136605

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;