Материалы по тегу:
|
21.03.2026 [13:15], Владимир Мироненко
Alibaba сообщила об отгрузке 470 тысяч чипов, признав, что они пока уступают решениям NVIDIA и AMDКитайская технологическая компания Alibaba Group Holding сообщила финансовые результаты III квартала 2026 финансового года, закончившегося 31 декабря 2025 года. В ходе телефонной конференции по итогам квартала, генеральный директор Alibaba У Юнмин (Wu Yongming), также известный как Эдди У (Eddie Wu), сообщил, что по состоянию на февраль 2026 года совокупный объём поставок чипов собственного производства достиг 470 тыс. ед., а годовая выручка от их продаж превысила ¥10 млрд. У Юнмин также сообщил о 36-% росте квартальной выручки облачного подразделения Alibaba Cloud, поскольку спрос на ИИ-сервисы резко возрос, а компания ускорила усилия по монетизации своих инвестиций в ИИ. Он отметил, что выручка от продуктов, связанных с ИИ, демонстрирует трехзначный рост в годовом исчислении уже десятый квартал подряд. Потребление токенов на публичном рынке MaaS (модель как услуга) на платформе Bailian MaaS за последние три месяца увеличилось в шесть раз. Как пишет ресурс The Register, гендиректор Alibaba не уточнил разбивку по поставкам наименований чипов. Разработкой и производством чипов занимается собственное подразделение Alibaba — T-Head Semiconductor (Pingtouge Semiconductor). Ресурс сообщил, что T-Head создало несколько чипов, включая, по крайней мере три чипа, предназначенных для рабочих ИИ-нагрузок ИИ, в том числе XuanTie C908, TH1520 для периферийного ИИ и Pingtouge Zhenwu 810E. Последний дебютировал в январе и, как считается, может конкурировать с NVIDIA H20, урезанной версией ускорителя на базе архитектуры Hopper 2023 года. Если речь идёт только о 810E, то 470 тыс. отгруженных с января чипов впечатляют, поскольку это ставит темпы производства Alibaba на один уровень с NVIDIA, отметил The Register. Генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) в прошлом году заявил, что компания отгрузила 6 млн ускорителей с архитектурой Blackwell за год. Как пишет EE Times China, согласно данным, опубликованным на официальном сайте Pingtouge, GPU Zhenwu 810E полностью разработан собственными силами, как в программном, так и в аппаратном отношении, и демонстрирует производительность, сравнимую с NVIDIA H20 и превосходящую A800 и другие популярные отечественные GPU. Он уже развёрнут в нескольких кластерах на платформе Alibaba Cloud, обслуживающей таких клиентов, как Государственная электросетевая компания, Китайская академия наук, XPeng Motors, Sina Weibo и др. Chinastarmarket.cn со ссылкой на гендиректора Alibaba пишет, что производственные мощности по выпуску высококачественных ИИ-чипов планируется расширить в 2026–2027 гг. По словам гендиректора, продукция T-Head пользуется высоким спросом у внешних коммерческих клиентов, на которых приходится более 60 % поставок чипов. А ИИ-чипы компании используют для обработки ИИ-нагрузок более 400 корпоративных клиентов из различных сегментов, включая интернет, финансовые услуги, автономное вождение и интеллектуальное производство.
Источник изображения: T-Head У Юнмин подчеркнул: «В ближайшие 3–5 лет глобальные вычислительные мощности для ИИ будут крайне дефицитными. Будучи единственной компанией на китайском рынке облачных вычислений, способной разрабатывать собственные чипы, T-Head имеет решающее значение для Alibaba Group». Отметим, что Huawei давно разрабатывает собственные ускорители Ascend и имеет облачное подразделение Huawei Cloud. Вместе с тем У Юнмин признал, что чипы компании пока не могут конкурировать с ускорителями NVIDIA и AMD. «Учитывая, что наши чипы по-прежнему отстают от зарубежных аналогов по производительности в различных аспектах, мы стремимся к более глубокому сотрудничеству с облачной инфраструктурой Alibaba и моделью Qwen для повышения экономической эффективности, — сообщил гендиректор. — Это одно из ключевых отличий и наш подход к проектированию чипов в T-Head, которое выделяет нас среди других компаний-производителей чипов. Наша главная цель — создание возможностей для ИИ, обеспечивающих превосходное соотношение цены и качества». Он отметил, что разработка собственных чипов гарантирует Alibaba «достаточное количество вычислительных мощностей для ИИ», что, по его словам, необходимо, учитывая «уникальные обстоятельства, с которыми в настоящее время сталкивается индустрия ИИ в Китае» — вероятно, имея в виду экспортные ограничения США касательно поставок в Китай передовых ускорителей. У Юнмин также выразил мнение, что разработка собственной технологической платформы поможет Alibaba снизить затраты на инференс, и это позволит облачной платформе получать значительную прибыль по мере роста спроса на ИИ. В ответ на слухи в отрасли о возможном выделении T-Head в отдельную компанию и проведении IPO, У Юнмин заявил: «T-Head не исключает проведения IPO в будущем, но чётких сроков пока нет». В ходе телефонной конференции Alibaba объявила о своих бизнес-целях в рамках стратегии в области ИИ: достичь в течение следующих пяти лет годового дохода более $100 млрд от коммерциализации облачных технологий и ИИ, включая MaaS. Отметим, что в минувшем квартале выручка Alibaba Cloud составила $6,2 млрд. У Юнмин сообщил, что основными драйверами роста Alibaba станут три области. Во-первых — сервисы MaaS. Рост, обусловленный инициативами MaaS, как ожидается, станет ключевым фактором роста будущей выручки как для ИИ, так и для облачных сервисов. Во-вторых, в значительном числе крупных, средних и малых предприятий будет расти спрос на внутреннее обучение и инференс на корпоративном уровне — это новый рынок. «В-третьих, есть ещё один важный фактор, важная возможность, которую, как мне кажется, часто игнорируют. Я говорю об облачных вычислениях, ориентированных на ЦП, о традиционных облачных вычислениях, которые всё ещё имеют значительный потенциал для расширения в эпоху ИИ», — сообщил глава компании. Согласно его прогнозу, в будущем могут появиться миллиарды агентов, созданных большими ИИ-моделями и их операционными средами. Операционные среды этих агентов также потребуют существенной поддержки со стороны традиционных облачных вычислений. Им нужны традиционные CPU, базы данных, хранилища и большие объёмы памяти для поддержки долгосрочного решения проблем и устойчивой работы. Задача состоит в трансформации традиционного рынка облачных вычислений, в переходе от облачной платформы, разработанной для пользователей-людей, ИТ-инженеров, к платформе, оптимизированной для вызова на основе агентов. «Я считаю, что здесь есть огромный потенциал для роста», — заявил У Юнмин. «Ключевой задачей для нас в этом году является трансформация традиционных облачных вычислений в платформу, которая лучше подходит для использования агентами. Это ключевой аспект обновления Alibaba Cloud», — добавил он.
21.03.2026 [13:08], Сергей Карасёв
От чистки ковров к СЖО: Ecolab планирует купить CoolIT почти за $5 млрдАмериканская компания Ecolab, по сообщению Datacenter Dynamics, рассматривает возможность приобретения поставщика систем жидкостного охлаждения CoolIT Systems. Стоимость сделки может составить $4,75 млрд, а завершить транзакцию планируется позднее в текущем году. В настоящее время CoolIT принадлежит фондам, управляемым инвестиционной компанией KKR. Последняя приобрела разработчика СЖО в 2023 году: тогда актив оценивался в $270 млн. В начале марта 2026-го стало известно о том, KKR намерена продать CoolIT, получив при этом около $3 млрд. Теперь же говорится, что стоимость сделки может и вовсе составить почти $5 млрд. Ecolab (ранее известная как Economics Laboratory), базирующаяся в Миннесоте, была основана более века назад — в 1923 году. Изначально фирма специализировалась на поставках средств для быстрой очистки ковровых покрытий в различных помещениях, таких как гостиничные номера. Сейчас Ecolab предлагает продукцию и услуги по очистке и мониторингу воды для ряда отраслей, включая пищевую промышленность, здравоохранение, гостиничный бизнес и производство. В ноябре 2025-го компания представила собственные решения в области СЖО.
Источник изображения: CoolIT Предполагается, что, объединив технологии CoolIT с опытом Ecolab в области водоснабжения, химии и цифрового обслуживания, стороны смогут предложить клиентам комплексные системы охлаждения, повышающие эффективность и надёжность при одновременном сокращении потребления воды и энергии. По оценкам Ecolab, на фоне быстрого внедрения СЖО в дата-центрах для ИИ-задач выручка CoolIT в течение ближайшего года достигнет $550 млн. Сделка потенциально позволит Ecolab существенно увеличить продажи в соответствующей области.
21.03.2026 [12:53], Сергей Карасёв
11 Тбайт памяти для ИИ: Penguin Solutions представила кеширующий сервер MemoryAI KV на основе CXL-модулейКомпания Penguin Solutions анонсировала систему MemoryAI KV Cache Server призванную решить проблему «стены памяти» в современных инфраструктурах, ориентированных на ресурсоёмкие задачи ИИ-инференса. Устройство предоставляет до 11 Тбайт CXL-памяти, что позволяет максимально эффективно использовать доступные вычислительные мощности. Сервер (модель Altus XE4318GT-KVC) выполнен в форм-факторе 4U. Он несёт на борту два процессора AMD EPYC 9005 Turin в исполнении Socket SP5 (LGA 6096) с показателем TDP до 500 Вт. В оснащение входят контроллер ASpeed AST2600 и сетевой адаптер Intel I350-AM2. Реализованы два коннектора для SSD формата M.2 2280/22110 с интерфейсом PCIe 3.0, восемь слотов для карт PCIe 5.0 x16 FHFL и два слота для карт PCIe 5.0 x16 LP, два сетевых порта 400GbE (RJ45), два порта USB 3.0 (5 Гбит/с), а также аналоговый интерфейс D-Sub. Устройство поддерживает до 3 Тбайт памяти DDR5-6400. Кроме того, установлены восемь карт CXL, каждая из которых содержит 1 Тбайт памяти. Благодаря этому расширяются возможности применяемых в инфраструктуре ИИ-ускорителей с ограниченным объёмом HBM. Говорится о совместимости с программной средой NVIDIA Dynamo, предназначенной в том числе для ускорения инференса. В целом, как отмечает Penguin Solutions, новый сервер позволяет компаниям максимально эффективно использовать GPU-ускорители благодаря добавлению больших пулов памяти.
Источник изображения: Penguin Solutions Устройство оборудовано четырьмя блоками питания мощностью 3000 Вт с сертификатом 80 Plus Titanium. Диапазон рабочих температур — от +10 до +35 °C. Заявлена совместимость с Red Hat Enterprise Linux (RHEL) и Rocky Linux. На систему предоставляется трёхлетняя гарантия.
20.03.2026 [19:45], Владимир Мироненко
Сооснователь Supermicro арестован за контрабанду в Китай ИИ-серверов на $2,5 млрдВ США предъявили обвинения трём людям, связанным с производителем ИИ-серверов Super Micro Computer (Supermicro), включая его соучредителя, в сговоре с целью контрабанды передовых чипов NVIDIA в Китай и нарушении американского экспортного контроля, запрещающего их продажу в КНР без лицензии. Об этом сообщило агентство Reuters со ссылкой на заявление Министерства юстиции США. Акции компании рухнули более чем на четверть. Согласно обвинительному заключению прокуратуры Южного округа Нью-Йорка, И-Шьян Лиау (Yih-Shyan Liaw), известный как Уолли (Wally), Руэй-Цанг Чанг (Ruei-Tsang Chang), известный как Стивен (Steven), и Тин-Вэй Сунь (Ting-Wei Sun), известный как Вилли (Willy) вступили в сговор с целью продажи серверов с запрещёнными для экспорта в Китай чипами. 71-летний Лиау, соучредитель Supermicro и член совета директоров компании, был арестован в четверг в Калифорнии и освобождён под залог. 44-летний Сунь, подрядчик Supermicro, находится под стражей в ожидании слушания по вопросу о мере пресечения. 53-летний Чанг, работавший в тайваньском офисе Supermicro, пока находится на свободе, скрываясь от правосудия. Всем им предъявлено обвинение в сговоре с целью нарушения Закона о реформе экспортного контроля, за что, в случае осуждения, предусмотрено максимальное тюремное заключение сроком на 20 лет. Также они обвиняются по одному пункту обвинения в сговоре с целью контрабанды товаров и по одному пункту в сговоре с целью обмана Соединённых Штатов, за каждый из которых предусмотрено максимальное тюремное заключение сроком на пять лет. По словам прокуроров, серверы зачастую собирались в США и сначала отправлялись на предприятия Supermicro на Тайване, затем доставлялись подставному юрлицу из Юго-Восточной Азии, которое в судебных документах обозначено как «Компания-1», а затем пересылались покупателям в Китае через сторонних брокеров. Сообщается, что китайские клиенты получали «флагманские» продукты Supermicro — серверы с NVIDIA B200 и H200. Как указано в обвинительном заключении, обвиняемые сотрудничали с руководителями компании-посредника, предоставляя производителю серверов фальшивые документы. Они использовали транспортно-логистическую компанию для переупаковки серверов в немаркированные коробки, чтобы скрыть их содержимое перед отправкой в Китай. Чтобы обмануть аудиторов производителя, которые проверяли компанию-посредника на соответствие экспортному законодательству, обвиняемые предъявляли им неработающие макеты серверов, тогда как настоящие серверы были отправлены в Китай. Согласно обвинительному заключению, двое из обвиняемых занимались размещением поддельных серверов на складе, арендованном компанией-посредником. Сунь передал фотографии и видео поддельных серверов одному из аудиторов, который вместо проведения проверки «находился вне офиса, наслаждаясь развлечениями, оплаченными» компанией-посредником. Также у следствия имеются видео с камер видеонаблюдения, зафиксировавших, как мошенники использовали строительные фены для замены этикеток и наклеек с серийными номерами на коробках и макетах серверов. «Схемы перенаправления, подобные тем, которые были раскрыты сегодня, приносят миллиарды долларов незаконной прибыли и представляют прямую угрозу национальной безопасности США», — заявил Джей Клейтон (Jay Clayton), прокурор Южного округа Нью-Йорка. «Преступления, связанные с чувствительными технологиями, должны пресекаться незамедлительно, иначе закон теряет смысл», — добавил он. Компания Supermicro не была прямо упомянута в обвинительном заключении, но подтвердила причастность всех трёх лиц к правонарушению. В своём заявлении она указала, что отстранила Лиау и Чанга от работы и прекратила сотрудничество с Сунем. Компания сообщила, что «в полной мере сотрудничает» с расследованием правительства. Ранее компанию обвинили в поставках подсанкционных изделий в РФ. Кроме того, Supermicro оштрафовали за нелегальные поставки оборудования в Иран. «Действия лиц, указанных в обвинительном заключении, являются нарушением политики компании и мер контроля за соблюдением нормативных требований, включая попытки обойти применимые законы и правила экспортного контроля. Supermicro поддерживает надёжную программу соблюдения нормативных требований и обязуется полностью соблюдать все применимые законы и правила США об экспортном и реэкспортном контроле», — сообщила компания в заявлении для СМИ.
20.03.2026 [14:52], Руслан Авдеев
1 ГВт в подарок: Google посадит на «диету» свои ИИ ЦОД во время пиковых нагрузок на энергосетиGoogle модернизировала управлением питанием своих ЦОД в США, добавив возможность гибко регулировать их энергопотребление, что позволяет снизить нагрузку на энергосети в пиковые часы, когда электричество особенно востребовано. Не слишком срочные вычислительные нагрузки будут переноситься на другое время или даже в другие ЦОД. Первые эксперименты в этом направлении компания начала ещё в 2023 году. Компания объявила, что в рамках программы контроля спроса интегрировала в свои долгосрочные энергоконтракты с рядом коммунальных компаний на территории США совокупные мощности на 1 ГВт. Возможности Google по оптимизации спроса в зависимости от нагрузок на электросети позволяют ограничивать или переносить выполнение части задач в сфере ИИ и/или машинного обучения в своих ЦОД, чтобы стабилизировать состояние сети. На практике управлять энергией можно не только во время пиковых нагрузок, но и тогда, когда сетям просто не хватает энергии. После того, как компания продемонстрировала свою технологию управления потреблением электричества совместно с энергокомпанией Omaha Public Power District в 2024 году, в 2025 году было объявлено о соглашениях с Indiana Michigan Power (I&M) и Tennessee Valley Authority (TVA). На этот раз подписаны соглашения с Entergy Arkansas, Minnesota Power и DTE Energy, предполагающие взаимодействие для оптимизации управления энергоснабжением.
Источник изображения: Google Системы умного управления энергетикой начали применять во всём мире. Так, в конце 2025 года ведущий оператор электросетей Великобритании National Grid провёл первое в стране испытание «гибкой» системы электроснабжения дата-центров при участии Nebius и с использованием ИИ-системы управления нагрузками и питанием Emerald AI. Последняя смогла обеспечить энергопотребление на заданном уровне, сократить спрос на энергию до −40 % и сохранить исполнение критических нагрузок в штатном режиме.
20.03.2026 [14:52], Руслан Авдеев
Blue Origin подала заявку на запуск более 51 тыс. спутников-ЦОДКомпания основателя Amazon Джеффа Безоса (Jeff Bezos) подала заявку в Федеральную комиссию по связи США (FCC) на вывод на орбиту до 51,6 тыс. спутников, представляющих собой компактные космические дата-центры, сообщает The Register. В поданном 19 марта заявлении утверждается, что «неутолимый» спрос на ИИ-нагрузки означает, что орбитальные ЦОД должны стать дополнением к земной инфраструктуре дата-центров. Правда, многие эксперты утверждают, что подходящих технологий для создания космических ЦОД пока не существуют, так что они, вероятно всего, будут ненадёжными и непрактичными. Blue Origin утверждает, что космические ЦОД позволят американским компаниям, так или иначе связанным с ИИ-проектами, добиться успеха в области машинного обучения, автономных систем, аналитики и др. Компания признаёт, что создать всю необходимую инфраструктуру на Земле будет непросто, но решить проблему способны помочь космические ЦОД. Спутники-ЦОД постоянно работают от солнечных элементов питания, не требуют земли и энергетической инфраструктуры, что значительно снизит издержки на вычислительные мощности в сравнении с наземными альтернативами. Blue Origin в рамках инициативы Project Sunrise намерена развернуть десятки тысяч спутников на солнечно-синхронных орбитах на высоте 500–1800 км. Наклоны орбит составят от 97° до 104°, на каждой орбитальной плоскости будет находиться 300–1000 спутников. Blue Origin заявила, что намерена использовать для связи спутников друг с другом оптическую связь, а для контакта с Землёй будет использоваться разработанная ей же технология космической связи TeraWave.
Источник изображения: NASA Стоит отметить, что Blue Origin пока не запустила ни одного спутника TeraWave и только дважды запускала свою ракету New Glenn, предназначенную для вывода на орбиту космических ЦОД. Согласно документам, первый из более 5 тыс. аппаратов TeraWave должен отправиться в космос до конца 2027 года. Значительная часть поданных материалов касается использования спектра в рамках Project Sunrise и обещаний не создавать проблем другим заинтересованным сторонам. Тем не менее в документах отмечено, что заявление в Международный союз электросвязи (International Telecommunications Union), также имеющий право голоса в подобных вопросах, пока не подано и проект ещё далёк от практической реализации. Стоит отметить, что не так давно заявку на размещение миллиона спутников-ЦОД на орбите подала компания SpaceX, причём заблокировать её одобрение потребовала родственная Blue Origin компания Amazon Leo, назвавшая идею «спекулятивной» и «нереалистичной» и потребовавшая «технических подробностей», хотя сам Безос ратует за космические ЦОД гигаваттного масштаба. Теперь причина такого агрессивного поведения в отношении конкурента более-менее ясна. У Google тоже есть проект создания космических ЦОД — Project Suncatcher.
20.03.2026 [14:20], Руслан Авдеев
Fujikura утроит выпуск оптоволокна в Японии на фоне спроса со стороны ИИ ЦОДЯпонская Fujikura объявила о расширении производство оптоволокна и соответствующих кабелей. Это поможет удовлетворить растущий спрос со стороны ИИ ЦОД, сообщает Datacenter Dynamics. В компании отметили, что в значительной степени спрос формируется США. На каждом из своих предприятий в Японии и Соединённых Штатах Fujikura намерена нарастить производственные мощности приблизительно в три раза в сравнении с текущим уровнем. Всего компания намерена инвестировать до ¥300 млрд ($1,9 млрд) в выпуск оптоволокна, при этом она собирается внимательно отслеживать рыночные тенденции. После того, как в 2025 году между правительствами Японии и США был подписан меморандум о взаимопонимании, на Fujikara легла обязанность поставлять оптоволоконные кабели для удовлетворения растущего спроса на ИИ-инфраструктуру в Соединённых Штатах. Основанная в 1885 году Fujikura имеет многочисленные офисы в Японии и Азии в целом, Европе, Северной Америке и Африке. Fujikura, базирующаяся в Токио, разрабатывает и выпускает продукцию для энергетических и телеком-систем, в том числе устройства для работы с оптоволокном.
Истточник изображения: Sorasak/unsplash.com На днях состоялось заседание совета директоров Fujikura, после которого компания объявила, что решено продолжить инвестиции в расширение производственных мощностей для выпуска оптоволокна и кабелей SWR/WTC (Spider Web Ribbon/Wrapping Tube Cable). Производство оптоволокна будет ускорено благодаря новым мощностям, строящимся на территории её предприятия в г. Сакура (префектура Тиба). Компания заявляет, что новые инвестиции призваны удовлетворить спрос на оптоволоконные кабели на рынке ИИ ЦОД и помогут расширить производство для совершенствования ИИ-инфраструктуры в США. Corning также наращивает продукции — компания построит крупнейшее в мире производство оптоволоконного кабеля для дата-центров в рамках сделки с Meta✴ на $6 млрд. В России же Минпромторг страны выступил с предложением отложить обязательное использование российского оптоволокна в кабелях ВОЛС на два года на фоне проблем с собственными производственными мощностями.
20.03.2026 [14:18], Руслан Авдеев
«Мусорное» тепло заводов охладит ЦОД благодаря цеолитовым блокамВ Нью-Йоркском университете (NYU) разработали необычную систему охлаждения на основе минералов. Благодаря им выделяемое на заводах тепло можно использовать для охлаждения дата-центров, сообщает Datacenter Dynamics. Эксперименты ведутся с цеолитами — эти минералы выступают своеобразными «тепловыми аккумуляторами». Они имеют множество микропор и в сухом виде активно поглощают водяной пар. При нагревании до достаточно высокой температуры цеолит отдаёт накопленную воду. Сушить цеолит можно на промышленных предприятиях с помощью выделяемого «мусорного» тепла с температурой ниже 200 °C. Это позволяет «заряжать» цеолитовый теплоаккумулятор, освобождая его от воды и приводя в состояние готовности к поглощению новой влаги в дата-центре. Исследователи утверждают, что такая технология может заменить компрессионные чиллеры, применяемые в классических системах охлаждения ЦОД. Цеолиты уже давно применяются для водоочистки, нефтепереработки и т.п. и стоят не очень дорого. Более того, они не теряют свойства и всегда готовы к поглощению воды. Учёные сравнили решение на основе цеолитовых теплоаккумуляторов с традиционными вариантами с компрессорными чиллерами и предприятиями, отводящими тепло с помощью градирен. Выяснилось, что использование тепла промышленных предприятий для «перезарядки» цеолита позволяет снизить совокупное потребление электричества у ЦОД и завода более чем на 75 %, а дата-центр отдельно может сократить расход электричества на охлаждение до 86 %. В результате показатель PUE улучшится приблизительно на 12 %. Утверждается, что комбинированная система охлаждения потребляет на 15–25 % больше воды, но учёные уверены, что в целом водные ресурсы даже экономятся, поскольку отработанное тепло тратится на «зарядку» теплоаккумуляторов, а не рассеивается в атмосфере. Даже с учётом энергии, расходуемой на перевоз тонн цеолитовых блоков, система всё равно позволяет экономить энергию во многих сценариях, в некоторых случаях — более чем на 40 % при использовании электрических грузовиков. Использование для перевозок железной дороги обеспечивает дополнительную экономию. Пока речь всё ещё идёт лишь о моделировании системы, предстоит решить ещё немало инженерных проблем. Исследователи сообщают, что необходимо создать долговечные, быстро работающие аккумуляторы с возможностью многократного циклического применения. Для координации действий между ЦОД и заводами потребуются новые бизнес-модели. Университет объявил, что уже начались переговоры с несколькими отраслевыми лидерами для возможного масштабирования решения. Согласно исследованиям Калифорнийского университета в Риверсайде без внедрения новых технологий к 2030 году дополнительно может потребоваться 2,6–5,49 млн м3 воды в дни пикового спроса ЦОД в США. Для сравнения: Нью-Йорк за сутки потребляет около 3,8 млн м3. Над альтернативными технологиями охлаждения работают и другие структуры. Так, Karman Industries представила систему охлаждения ИИ ЦОД с углекислым газом.
20.03.2026 [11:44], Сергей Карасёв
Платформа NVIDIA DGX Rubin NVL8 использует процессоры Intel Xeon 6Корпорация Intel сообщила о том, что в составе платформы NVIDIA DGX Rubin NVL8 для агентного ИИ применяются CPU поколения Xeon 6. Эти чипы отвечают за критически важные функции, такие как управление памятью, оркестрация задач и распределение рабочей нагрузки. Система DGX Rubin NVL8 несёт на борту два процессора Xeon 6776P семейства Granite Rapids. Изделия содержат 64 вычислительных ядра с возможностью одновременной обработки до 128 потоков инструкций. Базовая тактовая частота составляет 2,3 ГГц, максимальная — 3,9 ГГц. В режиме Priority Core Turbo (PCT) с восемью ядрами частота достигает 4,6 ГГц. Показатель TDP равен 350 Вт. CPU специально оптимизированы Intel для ИИ-узлов. «Intel Xeon 6 обеспечивает превосходную производительность, эффективность и совместимость с обширной экосистемой программного обеспечения x86, на которую полагаются клиенты при выполнении инференса в масштабе», — говорит Джефф Маквей (Jeff McVeigh), корпоративный вице-президент и генеральный директор стратегических ЦОД-программ Intel.
Источник изображения: NVIDIA В состав DGX Rubin NVL8 входят восемь ускорителей Rubin с суммарным объёмом памяти 2,3 Тбайт (пропускная способность — 160 Тбайт/с). Задействованы восемь однопортовых адаптеров NVIDIA ConnectX-9 VPI (до 800 Гбит/с NVIDIA Infiniband и Ethernet), а также два DPU NVIDIA BlueField-4. Общая пропускная способность шины NVIDIA NVLink достигает 28,8 Тбайт/с. Энергопотребление — приблизительно 24 кВт. Заявленное ИИ-быстродействие на задачах инференса NVFP4 составляет до 400 Пфлопс, при обучении моделей NVFP4 — 280 Пфлопс, при обучении FP8/FP6 — 140 Пфлопс. Среди поддерживаемого софта упомянуты NVIDIA DGX OS, Ubuntu, Red Hat Enterprise Linux, Rocky Linux.
20.03.2026 [11:35], Сергей Карасёв
NVIDIA представила архитектуру хранения данных BlueField-4 STX для ИИ-системКомпания NVIDIA анонсировала модульную эталонную архитектуру BlueField-4 STX, которая поможет предприятиям, облачным провайдерам и операторам дата-центров в создании высокопроизводительных платформ хранения данных, оптимизированных для задач ИИ. Отмечается, что в традиционных ЦОД применяются хранилища общего назначения, обладающие большой вместимостью. Однако они зачастую не способны обеспечивать скорость отклика, необходимую для работы ИИ-агентов: таким системам требуются доступ к информации в реальном времени и контекстная память. Архитектура STX призвана устранить существующие узкие места. Технологической основой STX является DPU NVIDIA BlueField-4, который объединяет Arm-процессор NVIDIA Grace/Vera, 128 Гбайт LPDDR5, 512 Гбайт SSD, сетевой адаптер NVIDIA ConnectX-9 SuperNic (1,6 Тбит/с) и коммутатор PCIe 6.0 с 48 линиями. Используются микросервисы NVIDIA DOCA и программное обеспечение NVIDIA AI Enterprise. Утверждается, что архитектура STX обеспечивает в четыре раза более высокую энергоэффективность по сравнению с традиционными архитектурами хранения, построенными на основе CPU. В целом, как отмечается, STX предоставляет основу для создания универсального механизма обработки данных, ускоряющего полный жизненный цикл ИИ — от обучения и аналитики до инференса на базе агентов. Первой реализацией STX в масштабе стойки является новая платформа хранения NVIDIA CMX с контекстной памятью, которая расширяет память GPU. О поддержке NVIDIA STX сообщили такие компании, как Cloudian, DDN, Dell Technologies, Everpure, Hitachi Vantara, HPE, IBM, MinIO, NetApp, Nutanix, VAST Data и WEKA. Производством систем на базе STX займутся AIC, Supermicro и Quanta Cloud Technology (QCT). Внедрить платформу в числе прочих намерены CoreWeave, Crusoe, IREN, Lambda, Mistral AI, Nebius, OCI и Vultr. Решения на базе STX станут доступны во II половине текущего года. |
|
