Материалы по тегу: nvidia

21.01.2025 [12:44], Сергей Карасёв

AAEON выпустила плату Boxer-8654AI-Kit на базе NVIDIA Jetson Orin NX

Компания AAEON анонсировала платформу Boxer-8654AI-Kit для разработчиков, проектирующих различные устройства с ИИ-функциями, например, IoT-оборудование, системы периферийных вычислений и пр. В основу новинки положен модуль NVIDIA Jetson Orin NX.

Изделие предлагается в двух вариантах: на базе Orin NX с 8 и 16 Гбайт памяти и шестью и восемью ядрами Arm Cortex-A78AE соответственно. Задействован графический блок на архитектуре NVIDIA Ampere с 1024 ядрами. Возможно кодирование видео в форматах 4K60 (H.265; один поток) или 4K30 (H.265; три потока), а также декодирование материалов 8K30 (H.265; один поток), 4K60 (H.265; два потока), 4K30 (H.265; четыре потока) и пр.

 Источник изображения: AAEON

Источник изображения: AAEON

Плата располагает коннектором M.2 M-Key 2280 для NVMe SSD и портом SATA-3. Доступны также разъём M.2 2230 E-Key для адаптера Wi-Fi и коннектор M.2 2242/3042/3052 B-Key для модема 5G (плюс слот для SIM-карты). Предусмотрены четыре сетевых порта 1GbE с опциональной поддержкой PoE (25,6 Вт на порт).

Новинка располагает выходом HDMI 1.4, двумя интерфейсами MIPI CSI (по четыре линии), четырьмя портами RJ-45 для подключения сетевых кабелей, шестью портами USB 3.2 Gen2 Type-A, двумя последовательными портами (плюс коннектор на плате для RS-232/422/485), 40-контактной колодкой GPIO, а также разъёмом Micro-USB. Питание (12–24 В) подаётся через DC-разъём. Плата имеет размеры 166 × 133 мм и весит около 190 г. Диапазон рабочих температур простирается от -25 до +70 °C.

Изделие Boxer-8654AI-Kit поставляется с пакетом NVIDIA Jetpack 6.0 SDK (Ubuntu Linux). Цена составляет $1283 за версию с 8 Гбайт памяти и $1691 за модификацию с 16 Гбайт.

Постоянный URL: http://servernews.ru/1117030
18.01.2025 [22:31], Владимир Мироненко

CoreWeave поставит IBM ИИ-суперкомпьютер на базе NVIDIA GB200 NVL72 для обучения моделей Granite

CoreWeave и IBM заключили соглашение о сотрудничестве, в рамках которого стартап поставит IBM один из первых своих ИИ-суперкомпьютеров на базе NVIDIA GB200 NVL72 с интерконнектом Quantum-2 InfiniBand. В качестве хранилища будет использоваться высокопроизводительная All-Flash СХД IBM Storage Scale System. IBM будет использовать облачную платформу CoreWeave для обучения семейства больших языковых моделей (LLM) Granite.

 Источник изображения: CoreWeave

Источник изображения: CoreWeave

Сообщается, что облачная платформа CoreWeave специально создана для обеспечения ведущей в отрасли производительности, надёжности и отказоустойчивости с безопасностью корпоративного уровня. Фирменный набор ПО и облачные сервисы предоставляют инструменты, необходимые для управления самой сложной и масштабной ИИ-инфраструктурой. В рамках соглашения о сотрудничестве клиенты CoreWeave получат доступ к платформе IBM Storage.

По словам вице-президента по ИИ в IBM Research, платформа CoreWeave позволит дополнить возможности IBM при разработке передовых, производительных и экономичных моделей для поддержки корпоративных приложений и ИИ-агентов. В свою очередь, IBM Storage Scale System расширяет возможности CoreWeave. «В рамках сотрудничества мы будем использовать этот суперкомпьютер для продвижения открытых технологий, таких как Kubernetes, которые будут поддерживать вычисления ИИ в гибридной облачной среде», — добавил представитель IBM.

Вероятно, IBM не хватает собственных вычислительных ресурсов — в ноябре появилась информация о том, что компания готова арендовать у AWS ИИ-ускорители за почти полмиллиарда долларов.

Постоянный URL: http://servernews.ru/1116957
17.01.2025 [15:17], Владимир Мироненко

NVIDIA строит в Израиле ИИ-суперкомпьютер стоимостью $500 млн

NVIDIA построит за $500 млн на севере Израиля 30-МВт научно-исследовательский суперкомпьютер на базе ускорителей Blackwell последнего поколения стоимостью около полмиллиарда долларов, сообщил The Register. Строительство кластера началось ещё в прошлом году, а закончить его планируется в I полугодии 2025 года.

Кластер будет располагаться на объекте площадью 10 тыс. м2 в научно-промышленном парке Mevo Carmel недалеко от Йокнеам-Илита (Yokne'am Illit). По словам компании, он получит сотни систем Blackwell с фирменным жидкостным охлаждением, DPU BlueField-3 SuperNIC, коммутаторами Spectrum-X800 и Quantum-X800. Как полагает The Register, кластер будет использоваться NVIDIA для разработки технологий ЦОД следующего поколения.

Точное количество ускорителей не указано. У NVIDIA есть несколько эталонных систем Blackwell с жидкостным охлаждением и различным количеством ускорителей. Согласно публикациям израильских СМИ, полная конфигурация нового суперкомпьютера будет включать «несколько тысяч» GPU, что позволит ему соперничать с национальным суперкомпьютером Israel-1. Israel-1 построен на 2048 ускорителях NVIDIA H100, объединённых с помощью 80 коммутаторов Spectrum-4. Суперкомпьютер имеет пиковую FP64-производительность до 137 Пфлопс, а FP8 — до 8 Эфлопс.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

The Register отметил, что на реализации проекта могут отразиться новые экспортные ограничения США. Согласно правилам AI Diffusion rule, Израиль относится к странам второго уровня с квотой на поставку до 50 тыс. передовых ускорителей в течение двухлетнего периода (2025–2027 гг.). Впрочем, эти правила вступят в силу через 120 дней с момента публикации, поэтому у NVIDIA в запасе достаточно времени для поставки необходимого количества ускорителей в Израиль.

С учётом прочных связей Израиля с США есть большая вероятность того, что стране будет предоставлен статус National Verified End User, что увеличит лимит импорта до 320 тыс. ускорителей в течение двухлетнего периода, отметил The Register.

Постоянный URL: http://servernews.ru/1116883
11.01.2025 [22:37], Владимир Мироненко

На волне бума генеративного ИИ продажи оборудования для ЦОД в 2024 году выросли до исторического максимума

Согласно данным Synergy Research Group, мировые расходы на оборудование и ПО для ЦОД в 2024 году выросли по сравнению с 2023 годом на 34 %, достигнув исторического максимума.

Хотя рост наблюдался во всех сегментах рынка, в значительной мере он был обусловлен 48 % скачком расходов на инфраструктуру публичного облака, на которую теперь приходится 55 % общего объёма рынка. После незначительного роста, наблюдавшегося в течение предыдущих пяти лет, в 2024 году было отмечено оживление продаж корпоративным клиентам, увеличившихся на 21 %.

Аналитики Synergy Research Group отметили, что уже 15 лет рост услуг публичного облака стимулирует рост инвестиций в облачную инфраструктуру, что ведёт к ограничению расходов на собственные ЦОД предприятий. Эта тенденция продолжилась и в 2024 году, но новым драйвером рынка, обеспечившим огромный рост расходов, стал генеративный ИИ.

Провайдеры облачных услуг и предприятия в равной степени стремились приобретать ускорители. Бум на рынке ИИ повлёк за собой взрывной рост выручки NVIDIA, прямые продажи которой гиперскейлерам и корпоративным клиентам вывели её в число ведущих поставщиков оборудования для ЦОД. Также был отмечен рост продаж Inspur, SuperMicro и продолжающееся доминирование ODM-производителей, поставляющих оборудование гиперскейлерам.

 Источник изображения: Synergy Research Group

Источник изображения: Synergy Research Group

Согласно прогнозу Synergy, общие доходы от продаж оборудования инфраструктуры ЦОД, включая облачное, а также от ПО, достигнут $282 млрд в 2024 году. Из них $156 млрд придётся на инфраструктуру публичного облака. Цифры основаны на фактических данных за первые три квартала 2024 года, а также прогнозе Synergy на IV квартал. На серверы, хранилища и сетевые решения в совокупности пришлось 85 % рынка инфраструктуры ЦОД. Остальная часть включает ПО, ПО для виртуализации, управления облаком и сетевой безопасности.

Synergy отметила, что если исключить ODM, то Dell является лидером по доходам сегмента серверов и хранилищ, а Inspur — лидером по продажам серверов публичным облакам. Cisco лидирует в сетевом сегменте. А Microsoft выбилась в лидеры благодаря серверным ОС и виртуализации. NVIDIA занимает ведущие позиции в качестве поставщика как для вендоров, так и для поставщиков услуг. Помимо перечисленных пяти компаний в число ведущих поставщиков на рынке также входят HPE, SuperMicro, Lenovo, VMware, Huawei, IBM и Arista Networks.

ИИ-ускорители и системы генеративного ИИ вызвали настоящий ажиотаж на рынке в 2024 году, что привело к рекордным темпам роста отрасли, отметил Джон Динсдейл (John Dinsdale), главный аналитик Synergy Research Group. Он сообщил, что корпоративный сегмент рынка снова растёт, хотя в долгосрочной перспективе публичные облака останутся основными инвесторами в ЦОД: «Десять лет назад продажи поставщикам публичных облачных сервисов составляли всего 20 % рынка. В 2024 году этот показатель вырос до 55 %, и, по нашему прогнозу, через пять лет он достигнет почти 65 %».

Постоянный URL: http://servernews.ru/1116614
10.01.2025 [14:21], Руслан Авдеев

ИИ по квотам: США распространят ограничения на поставку ускорителей и обучение моделей почти на весь мир

Администрация действующего президента США Джо Байдена (Joe Biden) до окончания своих полномочий намерена провести очередной раунд ограничений на экспорт ИИ-чипов. Это новая попытка перекрыть доступ к передовым технологиям Китаю, Ирану, России и другим странам, сообщает Bloomberg. После появления новостей акции NVIDIA и AMD несколько упали в цене.

По данным источников, США намерены ограничить продажи ИИ-полупроводников для ЦОД как на уровне стран, так и на уровне отдельных компаний. Основная цель — обеспечить развитие передовых ИИ-систем только «дружественным» государствам и приведение мирового бизнеса в соответствие с американскими стандартами. В результате ограничения в той или иной степени распространятся почти на весь мир.

Неограниченный доступ к современным технологиям сохранит только небольшая группа союзников США вроде Канады, ряда стран ЕС, Южной Кореи и Японии. Остальным доступ постараются перекрыть максимально, а большая часть мира, по мнению администрации, оказалась недостаточно благонадёжной, чтобы покупать ИИ-ускорители без ограничений. Появятся квоты, ограничивающие вычислительные способности каждой отдельной страны. Компании, базирующиеся в таких странах, могут обойти подобные ограничения — но для этого им необходимо будет привести свой бизнес в соответствие с американскими стандартами. Для этого вводится термин «проверенный конечный пользователь» (Validated End User, VEU).

 Источник изображения: Héctor J. Rivas / Unsplash

Источник изображения: Héctor J. Rivas / Unsplash

Разумеется, в NVIDIA выступили против инициативы, подчеркнув, что ограничение экспорта не прекратит злоупотребления, но создаст угрозу экономическому росту и поставит под вопрос лидерство США. Пока общемировой интерес к ускоренным вычислениям в повседневной жизни — невероятная возможность для экономики Соединённых Штатов. Многолетние санкции уже ограничивают возможности NVIDIA, AMD и др. компаний поставлять передовые чипы любому заказчику. Теперь США пытаются ограничить доступ к чипам через посредников на Ближнем Востоке и в Юго-Восточной Азии.

Против инициативы выступает и Ассоциация полупроводниковой промышленности (Semiconductor Industry Association). Ассоциация не одобряет принятия решения в период смены президентов, без учёта мнения отрасли — это может сказаться на конкурентоспособности США в мире. Китай имеет собственные ИИ-чипы, хотя и не такие производительные и, возможно, будет поставлять их и другим странам, усиливая своё влияние. Новые меры готовятся ввести на фоне гигантского спроса на ИИ-ускорители. Буквально каждая страна намерена использовать их в своих ЦОД, в чём и заключается «уникальная возможность» США и в политической плоскости — чтобы, по словам конгрессменов, «увести компании и страны с орбиты Пекина».

 Источник изображения: Bloomberg

Источник изображения: Bloomberg

К первому «разряду» (Tier I), по данным источников издания, отнесут США и 18 союзников, включая Канаду, Австралию, Японию, Великобританию, Германию, Францию, Южную Корею и Тайвань. Компании из этих регионов могут свободно пользоваться вычислительными ресурсами, а их штаб-квартиры в этих странах смогут получить разрешение на поставку чипов в ЦОД практически по всему миру. Однако им запрещено размещать более 25 % вычислительных мощностей за пределами стран Tier I и более 7 % — в любой из стран Tier II. Кроме того, они должны будут соблюдать требования к безопасности, выдвигаемые американским правительством.

Компании со штаб-квартирами в США должны будут размещать не менее половины вычислительных мощностей на американской земле. В целом США и приближённые страны, согласно новому плану, должны располагать большими вычислительными мощностями, чем весь остальной мир.

Подавляющее большинство стран относится ко второму разряду (Tier II). Каждой из них можно внедрить порядка 50 тыс. ИИ-ускорителей с 2025 по 2027 гг. При этом отдельные компании могут добиться гораздо больших лимитов, если получат статус VEU в каждой стране, где намерены оснастить ЦОД. Для этого необходимо иметь доказанную историю соблюдения американских норм и стандартов в сфере прав человека, или, как минимум, иметь убедительные планы для достижения необходимых результатов.

 Источник изображения: D A V I D S O N L U N A / Unsplash

Источник изображения: D A V I D S O N L U N A / Unsplash

Если компания получит статус VEU, её импорт чипов не будет сказываться на общей квоте страны. Это поощряет бизнес приводить свою деятельность в соответствие с американскими стандартами. Вместе с тем накладываются и требования по физической безопасности объектов, кибербезопасности и отбору персонала.

Наконец, больше всего ограничения коснутся России, Беларуси, Китая, Ирана, КНДР, а также всех стран, на которые распространяется американское эмбарго на поставки вооружений. Речь идёт приблизительно о двух дюжинах государств уровня Tier III. Поставки ИИ-ускорителей в ЦОД этих стран будут запрещены.

Помимо контроля над полупроводниками, новые правила также ограничивают и экспорт закрытых ИИ-моделей. Компаниям будет запрещён их хостинг в странах Tier III, а страны Tier II должны будут выполнять ряд требований. Конечно, ограничения не распространяются на страны, получившие универсальный статус VEU.

 Источник изображения: Patrick Tomasso / Unsplash

Источник изображения: Patrick Tomasso / Unsplash

Открытых моделей эти правила не коснутся, то же касается и маломощных закрытых моделей, менее производительных, чем имеющиеся в свободном доступе. Тем не менее, если компания захочет настроить открытую модель для выполнения специальных задач и этот процесс потребует значительных вычислительных мощностей, ей также понадобится подавать заявку на получение разрешения США для выполнения подобных задач в странах Tier II.

Ранее США запрещали поставки в страны вроде России на неопределённый срок. В Китай разрешено было поставлять версии с ограниченной функциональностью, а в ноябре прошлого года появилась новость, что США запретили TSMC выпускать передовые ускорители по заказу китайских компаний. На большинство стран мира ограничения не распространялись, что способствовало стремительному росту бизнеса NVIDIA.

Постоянный URL: http://servernews.ru/1116540
08.01.2025 [22:50], Владимир Мироненко

NVIDIA и партнёры запустили полномасштабное производство серверов на базе Blackwell

NVIDIA и её партнёры запустили полномасштабное производство систем с ускорителями Blackwell, заявил глава компании Дженсен Хуанг (Jensen Huang): «Каждый поставщик облачных услуг теперь имеет работающие системы». Первой компанией, которая начала поставки серверов на базе Blackwell, стала Dell. Отдельные провайдеры облачных услуг ещё в середине ноября прошлого года стали обладателями её платформ, передаёт Tom's Hardware.

На данный момент, по словам NVIDIA, круг поставщиков заметно расширился. Их предложения включают системы на базе Blackwell в более чем 200 различных конфигурациях. «Есть системы от примерно 15 производителей с 200 различными наименованиями в 200 различных конфигурациях, — сказал Хуанг. — Есть с жидкостным охлаждением, воздушным охлаждением, с чипами x86, с NVIDIA Grace, NVL36×2, NVL72. Целый ряд различных типов систем, которые подойдут практически к любому ЦОД в мире».

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Он отметил, что такие системы производятся на 45 заводах, что говорит о том, насколько активно отрасль переходит на выпуск систем с ИИ. Blackwell от Nvidia значительно увеличивают производительность вычислений для приложений ИИ и HPC по сравнению с чипами поколения Hopper, но при этом потребляют значительно больше энергии, что предъявляет повышенные требования к мощности ЦОД и его системам охлаждения. Если стойка на базе Hopper потребляет 40 кВт, то суперускоритель GB200 NVL72 потребляет порядка 120 кВт или даже больше.

Постоянный URL: http://servernews.ru/1116432
07.01.2025 [16:10], Владимир Мироненко

NVIDIA представила «персональный ИИ-суперкомпьютер» Project DIGITS на базе гибридного ускорителя GB10

Компания NVIDIA представила «персональный ИИ-суперкомпьютер» Project DIGITS — это самая компактная аппаратная платформа на базе суперчипов Grace Blackwell. Разработанная для исследователей ИИ, специалистов по данным и студентов система поставляется с полным набором ПО для создания, тюнинга и инференса ИИ-моделей. Это позволяет локально создавать и дорабатывать модели, а затем разворачивать их в облаке или ЦОД. Project DIGITS будет доступен в мае по цене от $3000.

Project DIGITS оснащён чипом GB10 с FP4-производительностью до 1 Пфлопс, разработанным в партнёрстве с MediaTek. GB10 включает ускоритель Blackwell, подключённый посредством NVLink-C2C к 20-ядерному Arm-процессору Grace, 128 Гбайт унифицированной когерентной памяти LPDDR5x и 4-Тбайт NVMe SSD. В оснащение также входит адаптеры Wi-Fi, Bluetooth и Ethernet (RJ45). На задней стенке есть видеовыход HDMI и четыре разъёма USB-C.

По словам компании, Project DIGITS позволит запускать модели размером до 200 млрд параметров, а при объединении двух таких систем посредством NIC ConnectX (два порта SFP28) возможен запуск моделей с 405 млрд параметров.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Работает новинка под управлением NVIDIA DGX OS — специализированной сборки Ubuntu Linux, оптимизированной для работы с ИИ-нагрузками. Пользователи Project DIGITS получат доступ к обширной библиотеке ПО NVIDIA AI, включая комплекты для разработки ПО, инструменты оркестрации, фреймворки и модели, доступные в каталоге NVIDIA NGC и на портале NVIDIA Developer. Разработчики смогут настраивать модели с помощью фреймворка NVIDIA NeMo, использовать в работе с данными библиотеки NVIDIA RAPIDS и задействовать популярные программные платформы, включая PyTorch, Python и Jupyter notebooks.

Для создания агентских приложений AI можно будет использовать NVIDIA Blueprints и микросервисы NVIDIA NIM, доступные для исследований, разработки и тестирования в рамках программы NVIDIA Developer Program. Благодаря единой архитектуре Grace Blackwell предприятия и индивидуальные исследователи смогут прототипировать, настраивать и тестировать ИИ-модели на локальных системах Project DIGITS с последующим развёртыванием в NVIDIA DGX Cloud, облачных инстансах или собственной инфраструктуре ЦОД.

Постоянный URL: http://servernews.ru/1116349
06.01.2025 [15:39], Владимир Мироненко

NVIDIA начала переманивать тайваньских специалистов для будущего центра по разработке ASIC

Тайваньскому изданию Commercial Times стало известно о планах NVIDIA создать подразделение для разработки специализированных ASIC. В публикации газеты сообщается, что американская компания выбрала Тайвань в качестве базы для своего центра исследований и разработок, и сейчас она активно переманивает квалифицированные кадры из крупных местных компаний по проектированию интегральных схем (ИС), что вызвало опасения у руководства отрасли по поводу потенциальной утечки мозгов.

По данным источников Commercial Times, в тайваньских фирмах по производству ИС, в середине 2024 года был отмечен резкий рост предложений с целью переманивания талантов. Поскольку NVIDIA запускает центр исследований и разработок ASIC, она может усилить попытки по переманиванию квалифицированных кадров, что вынуждает крупные компании, включая MediaTek, Alchip Technologies и дочернюю компанию TSMC GUC, принимать ответные меры в рамках подготовки к предстоящему противостоянию.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Как отметил ресурс TrendForce, технологические гиганты активно занимаются разработкой альтернатив ускорителям NVIDIA, чтобы ослабить свою зависимость от неё. В июле 2024 года Apple сообщила, что ее ИИ-модели для Apple Intelligence были обучены на Google TPU. А в декабре старший директор Apple по машинному обучению и искусственному интеллекту Бенуа Дюпен (Benoit Dupin) сообщил, что компания будет также использовать для обучения ИИ чипы Amazon Trainium2. А сейчас Apple совместно с Broadcom работает над созданием собственного серверного ИИ-ускорителя.

Реагируя на этот тренд, NVIDIA создаёт собственный центр ASIC, расширяя спектр своих услуг, пишет Commercial Times. Согласно её публикации, компания планирует нанять на Тайване более тысячи специалистов в таких областях, как проектирование микросхем, разработка ПО, а также исследования и разработки в сфере ИИ. С учётом того, что тайваньские компании по выпуску ASIC сыграли важную роль в разработке Microsoft Cobalt и Maia, Google TPU и кастомных чипов AWS, это делает их специалистов идеальными целями для привлечения, отметила Commercial Times.

Постоянный URL: http://servernews.ru/1116297
04.01.2025 [01:58], Владимир Мироненко

В 2024 году NVIDIA инвестировала в ИИ-стартапы более $1 млрд

В 2024 году NVIDIA стала одним из крупнейших инвесторов в стартапы в сфере ИИ. Американский технологический гигант, рыночная капитализация которого в июне превысила $3 трлн на фоне огромного спроса на ускорители, вложил крупные суммы в развитие некоторых из своих собственных клиентов в растущем секторе ИИ, пишет газета Financial Times.

Согласно отчётам NVIDIA и исследованию Dealroom, компания израсходовала около $1 млрд на инвестиции в рамках 50 раундов финансирования стартапов и несколько корпоративных сделок в 2024 году, тогда как в 2023 году компания инвестировала $872 млн в ходе 39 раундов. Как отметила Financial Times, подавляющее большинство сделок было заключено с компаниями с высокими требованиями к вычислительной инфраструктуре, а в некоторых случаях и с покупателями чипов NVIDIA.

Объём инвестиций NVIDIA начал расти после того, как ей удалось увеличить сумму наличных до $9 млрд, а её ускорители завоевали широкую популярность. За первые девять месяцев прошлого года инвестиции NVIDIA в «неаффилированные организации» составили $1 млрд, включая как венчурные, так и корпоративные инвестиционные подразделения. Согласно данным компании, это на 15 % больше, чем в 2023 году, и более чем в 10 раз превышает инвестиции в 2022 году.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Некоторые из крупнейших клиентов NVIDIA, включая Microsoft, Amazon и Google, занимаются разработкой собственных ИИ-чипов, стремясь снизить свою зависимость от её ускорителей. При таком сценарии небольшие компании в сфере ИИ могут в будущем стать для NVIDIA более важным источником доходов.

Согласно Dealroom, в 2024 году NVIDIA заключила больше сделок, чем Microsoft и Amazon, но уступила Google по этому показателю. Такая активность вызвала повышенное внимание антимонопольных органов в США, Европе и Китае, опасающихся доминирования компании на рынке ИИ. NVIDIA отвергает подозрения по поводу того, что она связывает финансирование с требованием использовать только её технологии. Компания заявила, что работает над развитием экосистемы, поддержкой крупных компаний и улучшением платформы для всех.

 Источник изображения: Andre Taissin / Unsplash

Источник изображения: Andre Taissin / Unsplash

«Мы конкурируем и побеждаем по заслугам, независимо от любых инвестиций, которые мы делаем», — подчеркнула NVIDIA. Последней сделкой NVIDIA в прошлом году в рамках поддержки стартапов была стратегическая инвестиция в xAI Илона Маска (Elon Musk), в которой также участвовал её конкурент AMD. Также компания участвовала в раундах финансирования OpenAI, Cohere, Mistral и Perplexity.

Впрочем, круг интересов NVIDIA весьма обширен. Компания инвестирует в стартапы в сфере ИИ, занимающиеся медицинскими технологиями, поисковыми системами, играми, дронами, чипами, управлением трафиком, логистикой, хранением и генерацией данных, обработкой естественного языка и человекоподобными роботами. Кроме того, у NVIDIA есть инкубатор стартапов Inception, который предлагает молодым компаниям «предпочтительные цены» на оборудование, а также облачные кредиты от её партнёров.

Также NVIDIA увеличила в прошлом году количество приобретений. На этой неделе компания завершила сделку по приобретению израильского стартапа Run:ai, разработчика платформы для управления рабочими нагрузками ИИ. NVIDIA также купила Nebulon, OctoAI, Brev.dev, Shoreline.io и Deci. По данным Dealroom, в 2024 году NVIDIA совершила больше приобретений компаний, чем за предыдущие четыре года вместе взятые.

 Источник изображения: Imagine Buddy / Unsplash

Источник изображения: Imagine Buddy / Unsplash

Благодаря её инвестициям у некоторых стартапов бизнес резко пошёл в гору. Например, CoreWeave, поставщик услуг облачных вычислений ИИ и крупный покупатель чипов NVIDIA, планирует выйти на биржу в начале этого года с рыночной капитализацией в $35 млрд, тогда как годом ранее его рыночная стоимость оценивалась примерно в $7 млрд. В начале 2023 года NVIDIA инвестировала в CoreWeave $100 млн, а в мае приняла участие в раунде финансирования стартапа на сумму $1,1 млрд.

В сентябре группа инвесторов во главе с NVIDIA предоставила $160 млн акционерного капитала компании Applied Digital, оказавшейся на грани банкротства из-за падения акций, после чего её акции выросли в цене на 65 %. Applied Digital является одним из покупателей ускорителей NVIDIA, и, спасая её, компания сохранила часть своего будущего дохода, который был бы утерян в случае банкротства стартапа.

В 2024 году акции NVIDIA выросли более чем на 170 % — она вместе с другими технологическими гигантами «помогла» индексу S&P 500 продемонстрировать лучший результат за два года в этом столетии.

Постоянный URL: http://servernews.ru/1116245
31.12.2024 [14:12], Сергей Карасёв

ByteDance в 2025 году планирует потратить $7 млрд на ускорители NVIDIA

Китайская холдинговая интернет-компания ByteDance, владеющая сервисом TikTok, по сообщению ресурса The Information, намерена в 2025 году закупить ИИ-продукты NVIDIA на сумму до $7 млрд. Если эти планы удастся осуществить, ByteDance получит в своё распоряжение один из самых масштабных парков ускорителей NVIDIA в мире.

Приобретение передовых ИИ-решений китайскими компаниями затруднено из-за американских санкций. В 2022 году США объявили об ограничениях на экспорт определённых ИИ-чипов в КНР, и с тех пор данные меры несколько раз ужесточались. Недавно администрация президента США Джо Байдена (Joe Biden) ограничила экспорт в Китай памяти HBM, которая применяется в высокопроизводительных ИИ-ускорителях.

Формально ByteDance придерживается санкционных ограничений: компания не ввозит ускорители напрямую в Китай, а использует их в дата-центрах, расположенных в других регионах, в частности, в Юго-Восточной Азии. Такая схема даёт возможность разворачивать ИИ-платформы с наиболее современными и производительными ускорителями.

 Источник изображения: ByteDance

Источник изображения: ByteDance

В частности, ранее сообщалось, что ByteDance реализует масштабный проект по расширению кампуса ЦОД в Малайзии: на создание хаба для ИИ-нагрузок будет потрачено свыше $2 млрд. Кроме того, ByteDance рассчитывает открыть новый дата-центр в Таиланде. Вместе с тем компания проектирует собственные ИИ-ускорители, которые, как ожидается, в перспективе помогут снизить зависимость от изделий NVIDIA. Так, ByteDance сотрудничает с Broadcom над 5-нм ИИ-решением, соответствующим всем ограничениям: производством этого чипа займётся тайваньская TSMC.

По данным The Information, часть средств из $7 млрд ByteDance потратит на аренду вычислительных мощностей в американских облаках. Известно, что китайские организации нашли лазейку в законах США: они используют облачные сервисы Amazon, Microsoft и их конкурентов для доступа к передовым чипам и технологиям ИИ. Так, ByteDance остаётся остаётся крупнейшим потребителем сервисов Microsoft Azure OpenAI.

Постоянный URL: http://servernews.ru/1116141
Система Orphus