Материалы по тегу: b300
26.06.2025 [12:05], Сергей Карасёв
HPE представила ИИ-систему Compute XD690 на базе NVIDIA HGX B300Компания HPE анонсировала высокопроизводительный сервер Compute XD690, предназначенный для решения таких ресурсоёмких задач, как обучение ИИ-моделей, инференс и пр. В основу новинки положены процессоры Intel и ускорители NVIDIA на архитектуре Blackwell. Поставки новинки компания планирует организовать в октябре нынешнего года. Система Compute XD690 выполнена в форм-факторе 10U с воздушным охлаждением. Полностью технические характеристики не раскрываются, но известно, что конфигурация включает два чипа Intel Xeon 6. Задействована платформа NVIDIA HGX B300 с восемью модулями Blackwell Ultra SXM. Заявленная производительность на операциях FP64 достигает 10 Тфлопс, на операциях FP4 — 144 Пфлопс. Суммарный объём памяти HBM3e составляет около 2,3 Тбайт. Применяется интерконнект NVLink пятого поколения с общей пропускной способностью 14,4 Тбайт/с. Говорится о поддержке XDR InfiniBand и Spectrum-X Ethernet. ![]() Источник изображения: HPE Как отмечает HPE, ускорители Blackwell Ultra обеспечивают на 50 % более высокую производительность FP4 и удвоенную пропускную способность GPU↔CPU по сравнению с решениями на архитектуре Blackwell предыдущего поколения. Благодаря этому возможна работа со сложными ИИ-моделями, агентами ИИ, рассуждающими системами и пр. Среди других вариантов использования названы генерация фотореалистичных видеоматериалов и симуляция детализированного 3D-окружения для робототехнических сред и самоуправляемых транспортных средств.
25.06.2025 [18:44], Владимир Мироненко
HPE представила новые решения для частных ИИ-фабрик на базе продуктов NVIDIAHPE представила комплексный набор решений, предназначенных для ускорения создания, внедрения и управления ИИ-фабриками на протяжении всего жизненного цикла ИИ. Эти решения адаптированы для использования практически для всех организаций, независимо от размера или отрасли, говорит компания. HPE расширила своё портфолио NVIDIA AI Computing by HPE, добавив ускорители NVIDIA Blackwell, включая новые компонуемые решения, оптимизированные для поставщиков услуг, разработчиков моделей и суверенных субъектов. Также было добавлено следующее поколение решений HPE Private Cloud AI — готового решения для ИИ-фабрик на предприятиях. Предлагаемые интегрированные, комплексные решения и услуги для ИИ-фабрик позволяют устранить для клиентов необходимость самостоятельно собирать полный стек ИИ-технологий при создании современного ИИ ЦОД. В основе портфолио NVIDIA AI Computing by HPE лежит решение HPE Private Cloud AI, представляющее собой полностью интегрированную, готовую ИИ-фабрику. Private Cloud AI обеспечит:
Новые ИИ-фабрики объединяют инновации и опыт HPE в области ИИ, достижения в области разработки жидкостного охлаждения и ПО HPE Morpheus Enterprise.
![]() Источник изображения: HPE Благодаря совместимости с архитектурой NVIDIA Enterprise AI Factory ИИ-фабрики HPE могут быть развёрнуты с использованием новейших ускорителей NVIDIA, решений Spectrum-X Ethernet, DPU NVIDIA BlueField-3 и ПО NVIDIA AI Enterprise. Портфолио NVIDIA AI Computing by HPE также пополнила система HPE Compute XD690 (поставки начнутся в октябре) на платформе NVIDIA HGX B300. HPE Performance Cluster Manager обеспечивает полностью интегрированное управление системами и расширенный мониторинг инфраструктуры и оповещения в больших, сложных ИИ-средах с масштабированием до тысячи узлов. Чтобы обеспечить непрерывную подачу готовых к ИИ-нагрузкам неструктурированных данных для ИИ-фабрик и приложений, СХД HPE Alletra Storage MP X10000 будет поддерживать серверы с поддержкой Model Context Protocol (MCP), которая появится во II половине 2025 года. В дополнение X10000 поддерживает эталонный дизайн NVIDIA AI Data Platform и предлагает SDK для оптимизации неструктурированных конвейеров данных для обработки, инференса, обучения и процесса непрерывного приобретения знаний и навыков. HPE сообщила, что программа Unleash AI пополнилась 26 новыми партнёрами. Также было объявлено, что сотрудничество HPE и Accenture с целью создания агентских ИИ-решений для финансовых сервисов и закупок, получило реализацию в новом совместном предложении для выхода на рынок, которое использует платформу Accenture AI Refinery, созданную на базе NVIDIA AI Enterprise и развёрнутую на HPE Private Cloud AI.
29.05.2025 [13:18], Руслан Авдеев
Перегрев, протечки и нестабильность затормозили массовый выпуск NVIDIA GB200 NVL72, но теперь все проблемы решеныПоставщики ИИ-серверов на базе NVIDIA GB200 NVL72, включая Dell, Foxconn, Inventec и Wistron, увеличили выпуск серверов. Для этого им пришлось решить ряд технических проблем, которые ранее привели к задержкам поставок продуктов клиентам, сообщает The Financial Times. Компании совершили «серии прорывов», что позволило им начать своевременные поставки серверов GB200 NVL72. Как сообщил один из инженеров неназванного производственного партнёра NVIDIA, внутренние тесты выявили «проблемы с подключением» в серверах, но поставщики организовали совместную работу с NVIDIA, и вопрос был решён два или три месяца назад. Впрочем, это не первая проблема с чипами семейства Blackwell. В конце 2024 года стало известно о перегреве суперускорителей NVL72. По слухам, разработчику чипов пришлось просить производителей внести немало изменений в эталонный вариант стоек, чтобы решить проблему. Также поступала информация о проблемах межчипового интерконнекта, программных багах и протечках охлаждающих жидкостей. В результате поставщикам пришлось увеличить число протоколов проверки — оборудование стали тестировать намного внимательнее перед поставками клиентам. При этом производителям уже нужно готовиться к выпуску систем на базе GB300. NVIDIA GB300 NVL72 всё так же использует полностью жидкостное охлаждение. Суперускоритель оснащён 72 чипами Blackwell Ultra и 36 процессорами Grace. В продажу решение должно поступить в III квартале 2025 года. ![]() Источник изображения: NVIDIA Впрочем, как сообщают журналисты, чтобы ускорить внедрение GB300-серверов, NVIDIA отказалась от более совершенного дизайна платы Cordelia позволявшего заменять отдельные компоненты, в пользу текущей версии Bianca, применяемой для GB200. Это решение может усложнить ремонт, но ускорит развёртывание систем. По словам трёх источников, знакомых с вопросом, NVIDIA сообщила поставщикам, что намерена перейти дизайн Cordelia в следующем поколении ИИ-продуктов.
26.05.2025 [11:21], Сергей Карасёв
Supermicro представила сервер SYS-822GS-NB3RT на базе NVIDIA HGX B300Компания Supermicro представила модель SYS-822GS-NB3RT на аппаратной платформе NVIDIA HGX B300 (Blackwell Ultra) для ресурсоёмких ИИ-нагрузок. Устройство выполнено в форм-факторе 8U и . Допускается установка двух процессоров Intel Xeon 6500P или 6700P поколения Granite Rapids с высокопроизводительными Р-ядрами. Доступны 32 слота для модулей оперативной памяти DDR5 с поддержкой MRDIMM-8000. Система имеет архитектуру 8-GPU. Во фронтальной части располагаются отсеки для восьми накопителей E1.S (NVMe) с возможностью горячей замены. Кроме того, есть два внутренних слота М.2 для NVMe SSD. Сервер оснащён двумя разъёмами PCIe 5.0 х16 FHHL для DPU NVIDIA BlueField-3. Упомянуты сетевые адаптеры NVIDIA ConnectX-8 SuperNIC. Supermicro позиционирует модель SYS-822GS-NB3RT в качестве передового «строительного блока» для формирования масштабных ИИ-кластеров с воздушным охлаждением. Компания Supermicro также сообщила о том, что в её ассортименте для заказа доступны более 20 систем, поддерживающих установку ускорителей NVIDIA RTX PRO 6000 Blackwell Server Edition с 96 Гбайт памяти GDDR7. Это, в частности, многоузловые серверы SuperBlade, компактные edge-решения, серверы типоразмера 5U с поддержкой до восьми GPU-карт, системы на модульной архитектуре NVIDIA MGX для ИИ-приложений и задач НРС, а также мощные рабочие станции.
25.05.2025 [13:19], Сергей Карасёв
ASUS показала компактный ИИ-суперкомпьютер Ascent GX10 и рабочую станцию ExpertCenter Pro ET900N G3 на базе BlackwellКомпания ASUS продемонстрировала настольные системы с ускорителями NVIDIA на архитектуре Blackwell. В частности, представлены компактный ИИ-суперкомпьютер Ascent GX10 и мощная рабочая станция ExpertCenter Pro ET900N G3 башенного типа. Устройство Ascent GX10 базируется на платформе NVIDIA DGX Spark. Установлен суперчип Grace Blackwell GB10, который содержит ускоритель Blackwell и процессор Grace с 20 ядрами Arm в конфигурации 10 × Arm Cortex-X925 и 10 × Arm Cortex-A725. Новинка обеспечивает ИИ-производительность до 1000 TOPS на операциях FP4. Компьютер располагает 128 Гбайт унифицированной системной памяти, что, как утверждает ASUS, позволяет работать с моделями ИИ, насчитывающими до 200 млрд параметров. В оснащение входит сетевой адаптер NVIDIA ConnectX-7 SmartNIC с двумя QSFP-портами. Также есть 10GbE-порт RJ45. Прочие технические характеристики не раскрываются — вероятно, они унаследованы у эталонного решения NVIDIA DGX Spark: это накопитель M.2 NVMe SSD, контроллеры Wi-Fi 7 и Bluetooth 5.3, порты USB 4 Type-C и HDMI 2.1a. Применяется NVIDIA DGX OS — модификации Ubuntu для работы с ИИ. Устройство предназначено прежде всего для прототипирования и настройки ИИ-моделей, а также инференса. В свою очередь, рабочая станция ExpertCenter Pro ET900N G3 получила ускоритель NVIDIA GB300 Grace Blackwell Ultra с 288 Гбайт памяти HBM3E. Есть 496 Гбайт памяти LPDDR5X в виде четырёх модулей SOCAMM. Упомянут сетевой адаптер NVIDIA ConnectX-8 SuperNIC. Заявленная ИИ-производительность достигает 20 Пфлопс в режиме FP4. Компьютер функционирует под управлением NVIDIA DGX OS. На фронтальную панель корпуса выведены порты USB и 3,5-мм аудиогнёзда. Предусмотрены слоты для флеш-карт.
23.05.2025 [13:33], Руслан Авдеев
Крупнейший ИИ ЦОД Stargate будет не в США: OpenAI и G42 построят 5-ГВт кампус в Абу-ДабиOpenAI и G42, поддерживаемая суверенным фондом благосостояния ОАЭ, построят в Объединённых Арабских Эмиратах (ОАЭ) 5-ГВт кампус ИИ ЦОД площадью почти 26 км2. В рамках сделки последняя планирует взаимные инвестиции «доллар за доллар» в ИИ-инфраструктуру США. Речь идёт о крупнейшем расширении проекта Stargate по созданию ИИ-инфраструктуры за пределы США, сообщает Bloomberg — проект значительно крупнее, чем 1,2-ГВт кампус Stargate в Абилине (Техас, США). Партнёрами в новом проекте являются SoftBank и Oracle, а также NVIDIA, которая поставит новейшие ускорители GB300, и Cisco, которая будет отвечать за сетевую инфраструктуру. Кампус ЦОД в ОАЭ значительно больше, чем не только любая площадка OpenAI, но и её ближайших конкурентов. Это позволит расширить сферу применения разработанных в США ИИ-решений за рубежом. Впрочем, G42 ранее была исторически связана с Китаем, поэтому существует риск утечки технологий с подрывом американской технологической мощи и национальной безопасности. Как заявил глава OpenAI Сэми Альтман (Sam Altman), создавая первые в мире кластеры Stargate в ОАЭ, компания претворяет смелые проекты в жизнь, помогая создавать новые технологии в самых разных сферах. В G42 назвали проект «значительным шагом в партнёрстве ОАЭ и США в области ИИ». Пока неизвестно, откуда кампус получит 5 ГВт, но проект будут реализовать в несколько этапов. Сначала будет построен кластер на 1 ГВт, первые 200 МВт введут в эксплуатацию в 2026 году. Всего OpenAI сможет использовать 1 ГВт из всех мощностей объекта в Абу-Даби, так что арендовать ЦОД смогут и другие компании. Примечательно, что в рамках партнёрства ОАЭ оплатит подписку ChatGPT Plus всем своим жителям. Также ИИ-инструменты будут интегрированы в государственные сервисы и сферы, включая энергетику и здравоохранение. Ранее известия о возможном строительстве ЦОД в ОАЭ обсуждали на уровне слухов, но информация об экспансии Stargate за пределы США ходит довольно давно. ![]() Источник изображения: Malik Shibly/unsplash.com Тем временем в США многие чиновники обеспокоены стратегическими последствиями вывода американских ИИ-технологий за рубеж. Не исключается угроза национальной безопасности при использовании передовых ускорителей странами, имеющими давние и глубокие связи с Китаем. Та же G42 почти всё время своего существования сотрудничала с Huawei и пообещала разорвать связи с КНР только для обеспечения партнёрства с Microsoft на сумму $1,5 млрд. Сделка подкреплялась межправительственным соглашением с конкретными положениями о национальной безопасности, закрывающими доступ Пекину к американским технологиям. Впрочем, некоторые американские чиновники до сих пор сомневаются, что G42 выполнит свою часть сделки. На вопрос о том, включает ли договор с OpenAI соглашение об обеспечении национальной безопасности, аналогичное соглашению с Microsoft, прямого ответа не последовало. Вместо этого источники подчёркивают, что все поставки передовых чипов в ОАЭ требуют экспортной лицензии в США. Такое требование действует с 2023 года для предотвращения утечки чипов в Китай. Хотя в последнее время экспорт либерализовали, определённые ограничения, особенно в отношении Китая, по-прежнему сохраняются. Дополнительно Вашингтон и Абу-Даби обсуждают соглашение, включающее строгий контроль за ИИ-оборудованием, во избежание его передачи в Китай. Также обсуждается ограничение обучения китайских моделей в ЦОД ОАЭ — не так давно появилась информация, что Поднебесная активно использует зарубежные облачные дата-центры для своих ИИ-проектов. Параллельно OpenAI ищет новые площадки в Азиатско-Тихоокеанском регионе, передаёт Bloomberg. Один из директоров компании намерен посетить, в частности, Австралию, Южную Корею, Японию, Индию и Сингапур, чтобы обсудить с представителями власти и бизнеса возможности развития ИИ-инфраструктуры и использования продуктов OpenAI. В Японии SoftBank Group и OpenAI уже создали совместное предприятие SB OpenAI для продвижения ИИ-сервисов в корпоративном секторе, а SoftBank планирует развернуть в стране новый ИИ ЦОД. Всего, как отмечается, интерес к размещению инфраструктуры OpenAI выразили более 30 стран.
22.05.2025 [12:43], Сергей Карасёв
ASRock Rack показала серверы NVIDIA HGX B300 и систему XGMRACK GB300 NVL72Компания ASRock Rack в рамках выставки Computex 2025 представила серверы нового поколения, оснащённые ИИ-ускорителями NVIDIA на архитектуре Blackwell. Кроме того, демонстрируются другие индустриальные и корпоративные продукты, включая материнские платы и системы с процессорами AMD и Intel. В число новинок вошёл сервер ASRock Rack 8U16X-GNR2 типоразмера 8U с воздушным охлаждением. Он выполнен на платформе NVIDIA HGX B300. По заявления разработчика, достигается в семь раз более высокая ИИ-производительность по сравнению с сопоставимыми системами, оборудованными ускорителями NVIDIA на архитектуре Hopper. Суммарный объём памяти HBM3e составляет около 2,3 Тбайт. Задействованы сетевые адаптеры NVIDIA ConnectX-8 SuperNIC. Кроме того, ASRock Rack готовит к выпуску сервер 4U16X-GNR2 на базе NVIDIA HGX B300 с жидкостным охлаждением. Обе модели ориентированы на ресурсоёмкие рабочие ИИ-нагрузки, такие как агентные системы, рассуждающие модели и генеративные сервисы. На стенде ASRock Rack представлено стоечная система XGMRACK на основе NVIDIA GB300 NVL72. Она объединяет 36 чипов NVIDIA Grace и 72 ускорителя NVIDIA Blackwell Ultra. Вычислительные и коммутационные узлы используют на 100 % жидкостное охлаждение. Общий объём памяти HBM3e превышает 20 Тбайт. Применяются решения NVIDIA Quantum-X800 InfiniBand и Spectrum-X Ethernet. ASRock Rack также представила серверы на модульной архитектуре NVIDIA MGX для масштабируемых ИИ-приложений и периферийных вычислений. В число таких машин входит модель 4UXGM-GNR2 типоразмера 4U с поддержкой двух процессоров Intel Xeon 6700P, 6500P (Granite Rapids) или Xeon 6700E (Sierra Forest). Доступны 32 слота для модулей оперативной памяти DDR5-6400, 16 посадочных мест для накопителей E1.S с интерфейсом PCIe 5.0 x4, два коннектора М.2 22110/2280 для SSD (PCIe 5.0 x4 и PCIe5.0 x2), восемь слотов PCIe 5.0 x16 FHFL, пять слотов PCIe 5.0 x16 FHHL и один слот PCIe 5.0 x16 HHHL. Установлены контроллер ASPEED AST2600 и четыре блока питания мощностью 1200 Вт с сертификатом 80 PLUS Titanium.
19.05.2025 [23:55], Владимир Мироненко
NVIDIA построит на Тайване новую штаб-квартиру и развернёт два ИИ-суперкомпьютераNVIDIA построит в ближайшем будущем на Тайване новую штаб-квартиру, а также два ИИ-суперкомпьютера. Об этом сообщил гендиректор американской компании Дженсен Хуанг (Jensen Huang), подтвердив свою приверженность Тайваню как глобальному технологическому центру, пишет The Financial Times. Хуан отдал должное Тайваню, «крупнейшему региону по производству электроники в мире», назвав его «центром компьютерной экосистемы». Строительством первого ИИ-суперкомпьютера на базе 10 тыс. ускорителей Blackwell займётся Big Innovation Company, «дочка» Foxconn, в сотрудничестве с NVIDIA и при поддержке тайваньского правительства. Стоимость суперкомпьютера, который будут использоваться в технологической экосистеме Тайваня, составит сотни миллионов долларов. В числе клиентов будущего суперкомпьютера Хуанг назвал TSMC, ключевого производственного партнёра NVIDIA, которая будет использовать его вычислительные мощности для исследований и разработки новых процессов создания чипов. Второй ИИ-суперкомпьютер построит ASUS в интересах Национального HPC-центра NCHC (National Center for High-Performance Computing). Он будет ориентирован на исследование климата, разработку квантовых технологий, создание LLM и иную R&D-деятельность. Система будет в восемь раз мощнее суперкомпьютера Taiwania 2, в создании которого также принимала участие ASUS. Новинка получит узлы HGX H200 (всего 1700 ускорителей), две стойки GB200 NVL72, а также HGX B300, объединённые интерконнектом Quantum InfiniBand. Кроме того, NCHC планирует установить системы DGX Spark и развернуть облачный HGX-кластер. «Мы растём за пределы нашего текущего офиса [на Тайване]», — заявил Хуан, демонстрируя видео приземления футуристического космического корабля и его последующей трансформации в дизайн новой штаб-квартиры Constellation («Созвездие»), строительство которой начнется в ближайшее время в Бэйтоу (Beitou), районе Тайбэя. Дженсен Хуанг также представил интерконнект NVLink Fusion, который позволит объединить решения NVIDIA с решениями конкурентов. Таким способом компания надеется закрепить свою технологию в качестве решения для базовой инфраструктуры. «Ничто не радует меня больше, чем, когда вы покупаете всё у NVIDIA… но мне доставляет огромную радость, если вы просто покупаете что-то у NVIDIA», — пошутил он. На вопрос о возможности создания NVIDIA нового чипа для Китая, который бы соответствовал последним экспортным ограничениям США, Хуанг заявил, что компания «оценивает, как лучше всего выйти на китайский рынок», отметив, что дальнейшие модификации H20 невозможны. Вместе с тем NVIDIA рассматривает возможность перепроектирования своих чипов с учётом новых ограничений, чтобы продолжать продавать их в Китае. На прошлой неделе стало известно о планах NVIDIA построить новый исследовательский центр в Шанхае в знак своей приверженности Поднебесной. Хуанг добавил, что «нет никаких доказательств контрабанды каких-либо ИИ-чипов» в Китай. Из-за опасений по поводу нелегальных поставок передовых чипов NVIDIA в Китай американские законодатели потребовали в прошлом месяце от компании предоставить отчёт о продажах её продукции в Китае и Юго-Восточной Азии.
25.03.2025 [21:13], Владимир Мироненко
Из-за проблем с ИИ Apple резко поменяла курс и решила потратить $1 млрд на суперускорители NVIDIA GB300 NVL72В отличие от других крупных технологических компаний, которые активно инвестируют в развёртывание ИИ ЦОД, Apple долгое время избегала резкого увеличения капитальных вложений в это направление. Но, похоже, ситуация изменилась, и Apple тоже начала наращивать инвестиции в это направление, пишет ресурс Investor's Business Daily (IBD). Аналитик Loop Capital Ананда Баруа (Ananda Baruah) сообщил в понедельник в записке для инвесторов, что Apple размещает заказы на поставку систем NVIDIA GB300 NVL72 на сумму около $1 млрд. Речь идёт о приблизительно 250 системах стоимостью $3,7– $4 млн каждая, пояснил аналитик. Баруа также сообщил, что Apple привлекла Dell и Supermicro к работе над собственным большим серверным кластером для поддержки приложений генеративного ИИ. Аналитик рассказал, что на текущий момент об этом проекте мало данных, но, похоже, Apple намерена использовать кластер для работы с большими языковыми моделями (LLM). Ранее компания сотрудничала с Google Cloud и использовала TPU для обучения своих ИИ-моделей. Для безопасного инференса компания использует серверы на базе собственных чипов серии M. По слухам, компания также работает над собственными серверными ИИ-ускорителями при поддержке Broadcom. Ананда Баруа считает, что резкая смена стратегии Apple связана с проблемами с выводом на рынок своего обновленного цифрового помощника Siri с поддержкой ИИ, который был анонсирован в прошлом году на конференции WWDC 2024. Компания планировала запустить новые функции Siri в начале этого года, но, похоже, что это произойдёт только в 2026 году. Один из топ-менеджеров Apple назвал задержки и промахи с запуском функций ИИ-платформы Apple Intelligence «отвратительными» и «позорными», поскольку компания продвигала возможности ИИ в телевизионной рекламе, сообщил ранее Bloomberg. В связи с этим на компанию уже подали в суд. В итоге новым руководителем направления ИИ вместо Джона Джаннандреа (John Giannandrea) был назначен Майк Роквелл (Mike Rockwell), глава отдела разработки Vision Pro.
24.03.2025 [20:02], Владимир Мироненко
ИИ в один клик: NVIDIA и Equinix предложат готовые к использованию кластеры DGX GB300 и DGX B300 в 45 регионах по всему мируЧтобы удовлетворить растущий спрос на ИИ-инфраструктуру, NVIDIA представила NVIDIA Instant AI Factory — управляемый сервис на базе платформ NVIDIA DGX SuperPOD с ускорителями Blackwell Ultra и ПО NVIDIA Mission Control. NVIDIA сообщила, что её партнёр Equinix станет первой компанией, которая предложит новые системы DGX GB300 и DGX B300 в своих предварительно сконфигурированных ЦОД с жидкостным или воздушным охлаждением, готовых к обработке ИИ-нагрузок и расположенных на 45 рынках по всему миру. Как пишет SiliconANGLE, Тони Пейкдей (Tony Paikeday), старший директор NVIDIA по маркетингу продуктов и систем ИИ, заявил, что партнёрство с Equinix позволит компании выйти на более чем 45 рынков по всему миру «с предварительно настроенными объектами, которые готовы в зависимости от спроса клиентов масштабировать, эксплуатировать и управлять ИИ-инфраструктурой». NVIDIA отметила, что сервис предоставит предприятиям полностью готовые ИИ-фабрики, оптимизированные для обучения современных моделей и рабочих нагрузок моделей рассуждений в реальном времени, что избавит от многомесячного планирования инфраструктуры перед развёртыванием. Поскольку Equinix предоставляет средства и инфраструктуру для разработки ИИ, Пейкдей возлагает большие надежды на платформу SuperPOD и считает, что она окажет позитивное влияние на развёртывание ИИ компаниями. «Equinix — ключевой компонент этой платформы, потому что вам нужно жидкостное охлаждение, вам нужны ЦОД следующего поколения, вам нужны сверхскоростные соединения с внешним миром, чтобы передавать эти данные», — заявил он. |
|