Материалы по тегу: ии
|
10.01.2026 [15:33], Руслан Авдеев
Крупнейшая инвестиция в истории Миссисипи — xAI потратит $20 млрд на ИИ ЦОД MACROHARDRR и смежные проектыКомпания xAI, созданная Илоном Маском (Elon Musk), подтвердила, что намерена построить третий дата-центр в Миссисипи и готова вложить в штат более $20 млрд. Это крупнейшие инвестиции в истории штата. Раннее Маск уже сообщал о строительстве в местном Саутхейвене (Southaven) ЦОД MACROHARDRR, который обеспечит дополнительные вычислительные мощности проекту Colossus, сообщает Datsacenter Dynamics. После того, как дата-центр площадью более 75 тыс. м2 будет полностью построен, совместно с ещё одной площадкой в Миссисипи и кампусом близ Мемфиса (Memphis) он обеспечит xAI доступ к 2 ГВт вычислительных мощностей. Утверждается, что проект преобразует регион и откроет невероятные возможности целыми поколениям местных жителей. В Миссисипи рассчитывают, что штат станет одним из лидеров научно-технической революции. xAI приобрела уже имеющееся здание, которое будет модернизировано для размещения оборудование ЦОД. Пока не сообщается, сколько именно ИИ-ускорителей будет использовать новый объект, но ранее компания заявляла, что проект Colossus в целом предполагает использование миллиона ИИ-чипов. Источник изображения: Gene Gallin/unsplash.com Регулятор Mississippi Development Authority заявил, что одобрил льготы для xAI в рамках программы Data Center Incentive. Последняя освобождает от налога с продаж и использования всё вычислительное оборудование и программное обеспечение, используемое компаниями, сертифицированными в качестве дата-центров. Саутхейвен и округ ДеСото тоже поддерживают деятельность xAI, предлагая соглашения об уплате фиксированных взносов вместо налогов (fee-in-lieu agreements). В штате считают, что преференции для операторов позволят конкурировать за участие в проектах вроде тех, что реализуются xAI, создавать высококачественные рабочие места и позиционировать себя как ключевой регион в центре развивающегося кластера, т.н. «Цифровой дельты» (Digital Delta). По словам Маска, xAI масштабирует бизнес «неизмеримыми» темпами и строит уже третий ЦОД в агломерации «Большого Мемфиса». MACROHARDRR позволит превратить Colossus самую производительную ИИ-систему на Земле (в данный момент). Во вторник xAI объявила, что привлекла $20 млрд в раунде финансирования серии E. Средства, предположительно, будут потрачены именно на проект в Саутхейвене. Компания Маска, предлагающая ИИ и чат-бот Grok, также арендует оборудование у бизнеса, основанного Valor Equity Partners — с этой целью привлечены $5,4 млрд для покупки чипов NVIDIA и прочего оборудования в интересах xAI. Новый ЦОД должен заработать уже в следующем месяце.
10.01.2026 [09:18], Руслан Авдеев
Не «пузырь», а «суперцикл» — к 2030 году на ЦОД будет потрачено $3 трлнСогласно докладу JLL 2026 Global Data Center Outlook, до 2030 года на ЦОД потребуется $3 трлн вложений. Это крупнейший инвестиционный «суперцикл» в истории. В докладе учитываются данные рынка, региональные прогнозы и стратегические сдвиги в индустрии ЦОД. По оценкам JLL, в 2025–2030 гг. появятся ЦОД общей мощностью около 97 ГВт. Общая мощность ЦОД достигнет примерно 200 ГВт, т.е. фактически удвоится, что потребует значительных инвестиций. Как считают в JLL, такой рост приведёт к созданию активов коммерческой недвижимости в объёме $1,2 трлн, что потребует около $870 млрд нового долгового финансирования. Кроме того, пользователи ЦОД потратят $1–$2 трлн на обновление парка ИИ-ускорителей и сетевой инфраструктуры. В совокупности инвестиции достигнут приблизительно $3 трлн к 2030 году. Как сообщает Datacenter Dynamics, в рамках прогноза JLL среднегодовой темп прироста глобального сектора ЦОД (CAGR) составит 14 % до 2030 года. Но, например, оценка Omdia на тот же период более консервативна. Несмотря на опасения экспертов, допускающих появление «ИИ-пузыря», в JLL утверждают, что существующие метрики не свидетельствуют о его возможном формировании. JLL утверждает, что сектор сохраняет здоровые фундаментальные показатели — глобальную загрузку мощностей на уровне 97 %, а 77 % строящихся уже объектов забронированы арендаторами.
Источник изображения: JLL Research Впрочем, есть и некоторые проблемы, негативно влияющие на мировой рынок ЦОД. Например, ограничения в цепочках поставок ведут к задержкам сроком выполнения заказов на оборудование по всему миру. По данным компании, среднее время выполнения достигает 33 недель, что на 50 % дольше в сравнении с 2020 годом. Кроме того, проблемы с цепочками отражаются на стоимости строительства, CAGR в этом секторе составляет 7 % ежегодно. По прогнозам JLL, в 2026 году стоимость строительства увеличится на 6 %, до $11,3 млн/МВт. Тем не менее, аналитики JLL подчёркивают, что увеличение сроков выполнения заказов свидетельствует о росте уверенности в рынке, а не о потенциальном спаде на нём.
Источник изображения: JLL Research Ключевой проблемой остаются ограничения, связанные с энергетикой. Прогнозируется рост соответствующей индустрии, связанный с энергоёмкими ИИ-сервисами. В частности, время присоединения ЦОД к энергосетям на основных рынках превышает четыре года, поэтому придётся прибегнуть к «энергетическим инновациям», а некоторые операторы дата-центров стремятся организовать локальные мощности для генерации энергии. JLL ожидает, что ключевую роль в масштабировании поставок энергии в США будет играть газовая энергетика, причём и как временное, и как постоянное решение для получения энергии непосредственно на территории кампусов. Впрочем, отмечается, что для APAC и EMEA такие решения менее привлекательны, поскольку не являются «устойчивыми». Потенциальным надёжным источником электричества называется и атомная энергетика, но в JLL признают малую вероятность того, что до 2030 года появятся новые значительные мощности АЭС.
Источник изображения: JLL Research По данным JLL, на ИИ-нагрузки к 2030 году, возможно, будет приходиться половина всех мощностей ЦОД, т.е. их доля увеличится вдвое по сравнению с 2025 годом. Также прогнозируется, что к 2027 году затраты на инференс будут больше, чем на обучение, благодаря чему спрос может сместиться с централизованных кластеров на распределённые региональные центры. До 2030 года на американские проекты будет приходиться около половины всех новых мощностей ЦОД, там же будут отмечаться и самые высокие темпы прироста рынка. В Азиатско-Тихоокеанском регионе мощности почти удвоятся, с 32 ГВт до 57 ГВт к 2030 году, а EMEA прирастёт на скромные 13 ГВт.
Источник изображения: JLL Research В докладе также анализируется быстрый рост на связанных с сектором рынках капитала. На базовые, с низким уровнем риска инвестиционные стратегии теперь приходится около 24 % активности по привлечению средств на ЦОД. За последние пять лет объём слияний и поглощений на рынке составил более $300 млрд и ожидается, что в будущем инвестиции сместятся в сторону рекапитализации и совместных предприятий. В компании уверены, что стремительное появление крупных сделок в сфере ИИ и неооблачного сектора определило 2025 год, как год трансформации сектора ЦОД и инфраструктуры. Структурирование капитала для новых компаний может оказаться сложным, поскольку кредиторы и партнёры по акционерному капиталу требуют надлежащих механизмов обеспечения защиты многомиллиардных инвестиций. Масштаб и особые требования к инфраструктуре сделок требуют инноваций при финансировании, позволяющих обеспечить баланс роста технологий ИИ и неооблачных проектов с надлежащим снижением рисков. Стоит отметить, что в сентябре 2025 года Bain Global Technology Report прогнозировала, что расходы ИИ-отрасли к 2030 году могут оказаться на $800 млрд больше её доходов.
09.01.2026 [19:23], Владимир Мироненко
Pay 'n' Pray: NVIDIA требует полную предоплату за поставку H200 в КитайПосле того, как США дали NVIDIA добро на поставку ИИ-ускорителей H200 в Китай в обмен на выплату 25 % от суммы продаж, китайские компании выразили готовность приобрести у чипмейкера более 2 млн ускорителей. Это в несколько раз превышает имеющиеся запасы на складах NVIDIA. Ранее сообщалось, что NVIDIA готова отгрузить первые партии H200 в середине февраля до наступления лунного Нового года. Китайские власти пока не дали разрешение на импорт этих чипов, но, как утверждает Bloomberg со ссылкой на проверенные источники, правительство готово уже в этом квартале разрешить приобретение H200 для отдельных коммерческих целей. При этом из-за соображений безопасности под запретом окажутся закупки чипов для военных организаций, госучреждений, объектов критической инфраструктуры и предприятий с госсобственностью. По словам источника, власти КНР попросили некоторые китайские технологические компании приостановить на время размещение заказов на чипы H200, поскольку регуляторами пока не решено, в каком соотношении к покупке ускорителей американской компании они должны будут приобрести чипы отечественного производства.
Источник изображения: NVIDIA Для NVIDIA возобновление поставок означает возврат на ключевой рынок. Генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) заявил, что спрос клиентов в Китае на чипы H200 «довольно высок» и что компания «запустила свою цепочку поставок» для наращивания производства. Хуанг отметил, что вне зависимости от официального заявления правительства Китая об одобрении, поступление заявок от китайских компаний на покупку «будет означать, что они могут размещать заказы». По словам источников агентства Reuters, в случае с поставками H200 компания решила полностью переложить на клиентов риски, связанные с неопределённостью ситуации, потребовав полную предоплату за заказ. NVIDIA и раньше требовала предоплату, хотя могла в порядке исключения согласиться и на размещение депозита. При полной предоплате поставок, если Китай вдруг изменит решение и заблокирует импорт чипов, возврата предоплаты не будет и убытки полностью лягут на плечи китайских клиентов американской компании.
09.01.2026 [19:01], Руслан Авдеев
Global Technical Realty (GTR) привлекла почти $2 млрд для экспансии на европейском рынке ЦОДОператор дата-центров Global Technical Realty (GTR), строящий объекты по всей Европе, привлёк почти $2 млрд для строительства в регионе цифровой инфраструктуры нового поколения, сообщает Datacenter Knowledge. $1,5 млрд обязалась предоставить инвестиционная компания KKR, а частная инвестиционная группа Oak Hill Capital присоединится к ней, выделив ещё порядка $400 млн, чтобы помочь GTR в строительстве новых ЦОД «под ключ». Компания GTR была сфомирована в 2020 году при участии предпринимателя Франека Содзавичного (Franek Sodzawiczny) и KKR. Теперь она расширяет присутствие как на основных рынках дата-центров, так и на развивающихся — не только в Европе, но и за её пределами. Ранее Содзавичный основал два колокейшн-провайдера в Великобритании: Sentrum (продана Digital Realty в 2012 году за $1 млрд) и Zenium (продана CyrusOne в 2017 году за $442 млн). По данным Datacenter Dynamics, KKR впервые объявила о намерении потратить $1 млрд на создание нового игрока рынка ЦОД гиперскейл-уровня в мае 2020 года. KKR намеревалась направить около $34 млрд собственного капитала в сферу цифровой инфраструктуры в рамках 24 инвестиций, а также вложить более $20 млрд в энергетику и возобновляемые источники энергии. Портфель компании включает пять платформ ЦОД в США, странах Азиатско-Тихоокеанского региона (АТР), а также Европы, Ближнего Востока и Африки (EMEA). В общей сложности насчитывается более 155 объектов и портфель проектов по развитию мощностей на 12 ГВт.
Источник изображения: Global Technical Realty (GTR) Oak Hill и её предшественники на сегодня осуществили порядка 30 инвестиций в цифровой бизнес. Инвестиции в GTR знаменуют собой четвёртую платформенную инвестицию фирмы в сектор ЦОД. 7 января GTR объявила, что новые инвестиции KKR и Oak Hill поддержат планы её развития — строительства новых объектов с нуля и реализации новых планов в Европе для удовлетворения спроса на энергоёмкую инфраструктуру для ИИ и облачных бизнесов. Сегодня GTR управляет «флагманским» кампусом GB One на 40,5 МВт в Лондоне, а также IS One на 10,5 МВт в Тель-Авиве. В июле 2023 года она приобрела кампус ES One близ Барселоны (Испания), находящийся недалеко от новой посадочной станции для подводного кабеля, соединяющего Европу, Северную Африку и Ближний Восток. В ноябре 2025 года GTR анонсировала планы переделки промышленной площадки на западе Лондона площадью 13 га в кампус GB Two для четырёх дата-центров. В том же месяце компания анонсировала строительство нового объекта CH One в Цюрихе (Швейцария).
08.01.2026 [14:43], Руслан Авдеев
Valor Equity Partners привлекла $5,4 млрд на покупку ускорителей NVIDIA для xAI — часть денег снова дала сама NVIDIAИнвестиционная группа Valor Equity Partners привлекла $5,4 млрд для покупки ИИ-ускорителей NVIDIA в интересах xAI. Инвестиционная компания основала дочернюю компанию Valor Compute Infrastructure (VCI), которая будет покупать и сдавать в аренду ИИ-инфраструктуру для стартапа Илона Маска (Elon Musk), сообщает Datacenter Dynamics. Предусмотрена закупка ускорителей NVIDIA GB200, причём часть денег на них дала сама NVIDIA. Фонды, управляемые инвестиционной компанией Apollo Capital, внесут вклад в общие инвестиции в объёме $3,5 млрд. Сделка предусматривает «тройную чистую аренду» (triple net lease) — это происходит на фоне недавних новостей о привлечении xAI $20 млрд в раунде финансирования серии E, одним из инвесторов также является Valor. NVIDIA тоже вложила средства в этом раунде, но в виде акций. Средства будут потрачены на строительство дата-центров. Создание VCI является новым шагом в партнёрстве Valor и xAI. Фонд обеспечивает инвесторам возможность вкладывать средства в критическую вычислительную ИИ-инфраструктуру с ежеквартальными выплатами. При этом инвестор будет владеть и самими вычислительными активами. Тройная чистая аренда означает, что xAI будет платить не только за аренду ускорителей, но и оплачивать любые расходы, связанные с их использованием.
Источник изображения: NVIDIA В числе институциональных спонсоров VCI названа и NVIDIA. Это означает, что лидер рынка ускорителей подписал очередное циклическое финансовое соглашение — средства NVIDIA будут потрачены на покупку её же продуктов. Такие соглашения NVIDIA также заключала с компаниями, включая OpenAI и неооблачных партнёров — это подогревает опасения, что рынок ИИ по сути является самоподдерживающимся пузырём. В результате NVIDIA пришлось даже выпустить памятку для финансовых аналитиков, в которой убеждает тех, что всё в порядке и ни о каком очередном пузыре не может быть и речи.
08.01.2026 [13:35], Руслан Авдеев
«Дата-центр в чемодане»: Odinn представила переносной нано-ЦОД Omnia с четырьмя NVIDIA H200Громоздкость оборудования для дата-центров не позволяет легко переносить его с места на место, но у стартапа Odinn своё видение этой проблемы. Компания представила на днях своеобразный «нано-ЦОД» с четырьмя ИИ-ускорителями NVIDIA H200 (NVL), сообщает The Register. По данным компании, 35-кг платформа Odinn Omnia помимом ускорителей включает до двух CPU AMD EPYC 9965 (Turin), до 6 Тбайт DDR5 ECC, 1 Пбайт NVMe SSD, 400GbE-адаптер, встроенный 23,8″ 4K-дисплей и откидную клавиатуру. Шасси снабжено рукоятками для переноски. Фактически речь идёт об устройстве размером с чемодан, хотя Omnia не позиционируется как портативный ПК или даже мобильная рабочая станция. «Чемоданный» ЦОД предлагается в нескольких конфигурациях, включая AI, Creator, Search и X. Использовать их можно для критически важных периферийных вычислений, военных миссий, симуляций корпоративного уровня, работы с киноматериалами буквально в любой локации. Кроме того, Omnia могут использоваться как модули для создания более масштабных структур, объединённых в кластеры Infinity Racks.
Источник изображения: Odinn Конечно, всё это обойдётся недёшево — один NVIDIA H200 стоит около $32 тыс. Можно предположить, что немногие компании позволят сотрудникам разгуливать с такими дорогими «чемоданами», которые довольно легко похитить. Впрочем, Odinn пока ничего не сообщает о цене устройств. Внешне, со встроенным дисплеем и откидной клавиатурой, Omnia отчасти напоминает портативные ПК далёкого прошлого. Если же встроенные дисплей и клавиатура не нужны, то есть решения попроще и в буквально смысле полегче. Так, 25-кг модульная платформа GigaIO Gryf объединяет в одном шасси-чемодане до пяти узлов различной конфигурации (плюс один обязательный модуль питания), в том числе с H200 NVL. Gryf тоже можно объединять в мини-кластеры.
07.01.2026 [12:23], Руслан Авдеев
xAI привлекла $20 млрд в раунде финансирования, возглавленном NVIDIA и CiscoИИ-стартап xAI, основанный и поддерживаемой Илоном Маском (Elon Musk), объявил о том, что привлёк $20 млрд в ходе раунда позднего финансирования. В раунде серии E приняли участие NVIDIA и Cisco, сообщает Silicon Angle. К ним присоединились Valor Equity Partners, Stepstone Group, Fidelity Management & Research, Qatar Investment Authority, MGX, Baron Capital Group и другие инвестиционные структуры. В ноябре сообщалось, что следующий раунд финансирования позволит оценить компанию в $230 млрд. Компания намерена использовать капитал для расширения своей ИИ-инфраструктуры. Она обучает флагманские ИИ-модели серии Grok с использованием суперкомпьютеров Colossus. Недавно Маск анонсировал, что компания приобрела новый дата-центр для увеличения вычислительной мощности. По слухам, ЦОД находится недалеко от электростанции, которую xAI строит, чтобы удовлетворить растущие потребности Colossus в энергии. По данным Маска, запланированные доработки Colossus увеличат энергопотребление до 2 ГВт. Маск уже похвалил недавно представленные ускорители NVIDIA Rubin. Судя по новостям об участии NVIDIA в финансировании xAI, высока вероятность, что новые чипы будут активно применяться для расширения проекта Colossus. Помимо строительства новой инфраструктуры, xAI будет использовать собранные средства для запуска новых продуктов. Компания объявила, что речь идёт о разработках как для пользовательского, так и для корпоративного рынков. В декабре 2025 года xAI представила корпоративную версию Grok, предусматривающую интеграцию Google Drive. Сотрудники компаний могут использовать чат-бот для поиска материалов, хранящихся в облачном хранилище. Тариф Grok Enterprise также предусматривает доступ к инструментам по обеспечению кибербезопасности. Использующие его организации могут задавать настройки доступа и использовать собственные ключи шифрования для защиты бизнес-данных. В ближайшие месяцы xAI намерена обеспечить интеграцию со сторонними сервисами помимо Google Drive. Компания также добавит и новые функции, включая возможность создания кастомных ИИ-агентов. Обновления должны выйти одновременно с премьерой флагманской ИИ-модели Grok 5. Компания сообщила, что её обучение уже началось. Последний раунд финансирования состоялся всего через неделю после того, как OpenAI, по слухам, получила $22,5 млрд от ключевого инвестора SoftBank Group. Средства поступили в рамках раунда финансирования на $40 млрд, объявленного ещё в марте 2025 года. Как и xAI, компания OpenAI активно строит инфраструктуру ИИ ЦОД для поддержки обучения ИИ-моделей нового поколения.
07.01.2026 [07:01], Владимир Мироненко
Lenovo показала концепт ИИ-хаба Lenovo Personal AI Hub Concept для обработки ИИ-приложений в экосистеме устройств пользователяLenovo продемонстрировала на выставке CES 2026 концепт ИИ-хаба Lenovo Personal AI Hub Concept, получивший кодовое название Project Kubit. Как сообщает компания, персональный ИИ-хаб — периферийное облачное устройство для поддержки ИИ-приложений в экосистеме потребителя, включающей ПК, смартфоны, носимые устройства и решения для умного дома. В частности, Lenovo Personal AI Hub собирает данные с различных платформ, предоставляя пользователю доступ к новым уровням аналитики и ИИ-приложениям, обеспечивая высокопроизводительные персональные вычисления с использованием ИИ.
Источник изображения: Lenovo Lenovo Personal AI Hub Concept представляет собой систему из двух рабочих станций Lenovo ThinkStation PGX, соединённых с помощью адаптера NVIDIA ConnectX-7. Lenovo ThinkStation PGX использует для вычислений суперчип NVIDIA GB10, включающий ускоритель с архитектурой Blackwell и 20-ядерный Arm-процессор. Объём унифицированной оперативной памяти LPDDR5X-9400 составляет 128 Гбайт, ёмкость накопителя NVMe M.2 составляет до 4 Тбайт. Станция обеспечивает производительность 1 PFLOPS в вычислениях FP4. Система из двух станций поддерживает работу с ИИ-моделями размером до 405 млрд параметров. ИИ-хаб Lenovo Personal AI Hub поддерживает управление как с помощью касаний сенсорного экрана, так и с использованием голосовых команд.
06.01.2026 [22:15], Владимир Мироненко
AMD анонсировала чипы Ryzen AI Embedded серий P100 и X100AMD представила процессоры AMD Ryzen AI Embedded серий P100 и X100, сочетающие высокопроизводительные ядра Zen 5, GPU RDNA 3.5 и NPU XDNA 2 для энергоэффективного ускорения ИИ. Процессоры серии P100 ориентированы на автомобильные решения и промышленную автоматизацию, а процессоры серии X100 с большим количеством ядер и повышенной ИИ-производительностью предназначены для более требовательных физических и автономных систем. Процессоры серии P100 с 4–6 ядрами, оптимизированные для цифровых кабин следующего поколения и HMI (человеко-машинных интерфейсов), обеспечивают рендеринг графики в реальном времени для автомобильных информационно-развлекательных дисплеев, взаимодействие на основе ИИ и быстродействие в многодоменных средах. Они обеспечивают до 2,2-кратное повышение производительности в многопоточных и однопоточных задачах по сравнению с предыдущим поколением. Чипы P100 имеют диапазон TDP от 15 Вт до 54 Вт, поддерживают память LPDDR5X и выполнены в BGA-корпусе размером 25 × 40 мм (FP8). Новые чипы с поддержкой работы при температуре от –40 °C до +105 °C созданы для сложных условий эксплуатации в ограниченном пространстве, включая безвентиляторные или полузащищённые конструкции, и рассчитаны на 10 лет работы в режиме 24/7. Чипы поддерживают память DDR5-5600 (ECC) и LPDRR5x-7500/8000 (Link ECC), а также имеют поддержку двух 10GbE-интерфейсов и двух USB4-подключений. AMD утверждает, что серия P100 обеспечивает до трёх раз большую ИИ-производительность (AI TOPS) по сравнению с серией Ryzen Embedded 8000. Это имеет важное значение для клиентов, модернизирующих существующие системы для достижения более высокой производительности ИИ на Ватт и на плату в целом, отметил ресурс Storagereview. Помимо автомобильного применения компания также ориентирует свои процессоры на вещательное оборудование, промышленные ПК, киоски, медицинские устройства и даже аэрокосмическую отрасль. Процессоры Ryzen AI Embedded обеспечивают согласованную среду разработки с унифицированным программным стеком, охватывающим CPU, GPU и NPU. Разработчики получат преимущества от оптимизированных библиотек CPU, открытых стандартных API GPU и архитектуры XDNA. Весь программный стек построен на базе открытой платформы виртуализации Xen, которая обеспечивает безопасную изоляцию нескольких доменов. Это позволяет использовать Yocto или Ubuntu для HMI, FreeRTOS для задач реального времени и Android или Windows для поддержки многофункциональных приложений, которые безопасно работают параллельно. Процессоры AMD Ryzen AI Embedded P100 с 4–6 ядрами, а также инструменты разработки и документация уже доступны для ознакомления избранным клиентам. Начало серийного производства чипов намечено на II квартал, а референсные платы появятся во II половине 2026 года. Процессоры серии P100 с 8–12 ядрами, предназначенные для приложений промышленной автоматизации, начнут поставляться в I квартале. Предоставление образцов процессоров серии X100 с до 16 ядер начнётся в I половине этого года.
06.01.2026 [14:28], Владимир Мироненко
NVIDIA объявила о запуске платформы Vera Rubin NVL72NVIDIA объявила о запуске платформы следующего поколения Rubin, которая приходит на смену Blackwell Ultra. Компания отметила, что платформа Rubin объединяет сразу пять инноваций, включая новейшие поколения интерконнекта NVIDIA NVLink, Transformer Engine, Confidential Computing и RAS Engine, а также процессор NVIDIA Vera. Примечательно, что NVIDIA снова решила вернуться к именованию на основе количества суперчипов (NVL72), а не ускорителей (NVL144), как обещала в прошлом году. Созданная с использованием экстремального совместного проектирования на аппаратном и программном уровнях, NVIDIA Vera Rubin обеспечивает десятикратное снижение стоимости токенов для инференса и четырёхкратное сокращение количества ускорителей для обучения моделей MoE по сравнению с платформой NVIDIA Blackwell. Коммутационные системы NVIDIA Spectrum-X Ethernet Photonics обеспечивают пятикратное повышение энергоэффективности и времени безотказной работы. Платформа Rubin построена на шести чипах — Arm-процессоре Vera, ускорителе Rubin, коммутаторе NVLink 6, адаптере ConnectX-9 SuperNIC, DPU BlueField-4 и Ethernet-коммутаторе NVIDIA Spectrum-6. Ускорители Rubin поначалу будут доступны в двух форматах. В первом случае — в составе стоечной платформы DGX Vera Rubin NVL72, которая объединяет 72 ускорителя Rubin и 36 процессоров Vera, NVLink 6, ConnectX-9 SuperNIC и BlueField-4. Также ускорители Rubin будут доступны в составе платформы DGX/HGX Rubin NVL8 на базе x86-процессоров. Обе платформы будут поддерживаться кластерами NVIDIA DGX SuperPod, сообщил ресурс CRN. Как отметила NVIDIA, разработанный для агентного мышления, процессор NVIDIA Vera является самым энергоэффективным процессором для крупномасштабных ИИ-фабрик. Он оснащён 88 кастомными Armv9.2-ядрами Olympus с 176 потоками с новой технологией пространственной многопоточности NVIDIA, 1,5 Тбайт системной памяти SOCAMM LPDDR5x (1,2 Тбайт/с), возможностями конфиденциальных вычислений и быстрым интерконнектом NVLink-C2C (1,8 Тбайт/с в дуплексе). NVIDIA Rubin с аппаратным адаптивным сжатием данных обеспечивает до 50 Пфлопс (NVFP4) для инференса, что в пять раз быстрее, чем Blackwell. Он также обеспечивает до 35 Пфлопс (NVFP4) в режиме, что в 3,5 раза быстрее, чем его предшественник. Пропускная способность 288 Гбайт HBM4 составляет 22 Тбайт/с, что в 2,8 раза быстрее предшественника, а пропускная способность NVLink на один ускоритель вдвое выше — 3,6 Тбайт/с (в дуплексе). NVIDIA также сообщила, что Vera Rubin NVL72 обладает 54 Тбайт памяти LPDDR5x, что в 2,5 раза больше, чем у Blackwell, и 20,7 Тбайт памяти HBM4, что на 50 % больше, чем у предшественника. Агрегированная пропускная способность HBM4 достигает 1,6 Пбайт/с, что в 2,8 раза больше, а скорость интерконнекта составляет 260 Тбайт/с, что вдвое больше, чем у платформы Blackwell NVL72, и «больше, чем пропускная способность всего интернета». Ожидаемый уровень энергопотребления составит от 190 до 230 кВт на стойку. Компания отметила, что Vera Rubin NVL72 — первая стоечная платформа, обеспечивающая конфиденциальные вычисления, которая поддерживает безопасность данных на уровне доменов CPU, GPU и NVLink. Коммутатор NVLink 6 с жидкостным охлаждением оснащён 400G-блоками SerDes, обеспечивает пропускную способность 3,6 Тбайт/с на каждый GPU для связи между всеми GPU, общую пропускную способность 28,8 Тбайт/с и 14,4 Тфлопс внутрисетевых вычислений в формате FP8. Хотя NVIDIA заявила, что Rubin находится в «полномасштабном производстве», аналогичные продукты от партнёров появятся только во II половине этого года. Среди ведущих мировых ИИ-лабораторий, поставщиков облачных услуг, производителей компьютеров и стартапов, которые, как ожидается, внедрят Rubin, компания назвала Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta✴, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab и xAI. ИИ-лаборатории, включая Anthropic, Black Forest, Cohere, Cursor, Harvey, Meta✴, Mistral AI, OpenAI, OpenEvidence, Perplexity, Runway, Thinking Machines Lab и xAI, рассматривают платформу NVIDIA Rubin для обучения более крупных и мощных моделей, а также для обслуживания мультимодальных систем с длинным контекстом с меньшей задержкой и стоимостью по сравнению предыдущими поколениями ускорителей. Партнёры по инфраструктурному ПО и хранению данных AIC, Canonical, Cloudian, DDN, Dell, HPE, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, Supermicro, SUSE, VAST Data и WEKA работают с NVIDIA над разработкой платформ следующего поколения для инфраструктуры Rubin. В связи с тем, что рабочие нагрузки агентного ИИ генерируют огромные объёмы контекстных данных, NVIDIA также представляла новую платформу хранения контекста инференса NVIDIA Inference Context Memory Storage Platform — новый класс инфраструктуры хранения, разработанной для масштабирования контекста инференса. Сообщается, что платформа, работающая на базе BlueField-4, обеспечивает эффективное совместное использование и повторное применение данных KV-кеша в рамках всей ИИ-инфраструктуры, повышая скорость отклика и пропускную способность, а также обеспечивая предсказуемое и энергоэффективное масштабирование агентного ИИ. Дион Харрис (Dion Harris), старший директор NVIDIA по высокопроизводительным вычислениям и решениям для ИИ-инфраструктуры, сообщил, что по сравнению с традиционными сетевыми хранилищами для данных контекста инференса, новая платформа обеспечивает до пяти раз больше токенов в секунду, в пять раз лучшую производительность на доллар и в пять раз лучшую энергоэффективность. |
|
