Материалы по тегу: ии

18.03.2026 [12:38], Руслан Авдеев

Alcatel Submarine Networks (ASN) вложит €100 млн в модернизацию заводов в Кале и Гринвиче, выпускающих подводные кабели

Компания Alcatel Submarine Networks (ASN) намерена инвестировать около €100 млн в модернизацию своего производства в Кале (Франция) и Гринвиче (Великобритания). Заводы занимаются выпуском подводных кабелей.

Спрос на увеличенную пропускную способность в мире растёт уже более десяти лет подряд. Особое влияние на эти процессы оказывают облачные сервисы, службы потоковой передачи данных и в последние несколько лет — ИИ-платформы.

В условиях растущего спроса на данные телеком-операторы и «большая пятёрка GAFAM» (Google, Apple, Meta, Amazon, Microsoft) вкладывают всё больше средств в развитие собственной инфраструктуры, особенно в подводные оптоволоконные сети на основе соответствующих кабелей. По ним сегодня передаётся подавляющее большинство данных между континентами.

Для удовлетворения спроса ASN, давно специализирующаяся на проектировании таких систем, производстве и монтаже кабелей, продолжает модернизировать своё производство во Франции и Великобритании.

€100 млн планируется потратить в течение трёх лет — с 2026 по 2028 годы. Производство будет оптимизировано для выпуска кабелей нового поколения. План включает реконструкцию и расширение здания на территории промзоны в Кале, а также отделку нового здания на площадке в Гринвиче.

 Источник изображения: ASN

Источник изображения: ASN

Инвестиции укрепляют позиции компании в Кале и Лондоне (Гринвиче). Это означает развитие местных команд специалистов и более эффективное использование их навыков на производстве ASN.

По словам представителя компании, она продолжает инвестировать в людей и инфраструктуру в рамках плана Ambition 2030, чтобы поддерживать клиентов и предлагать им технологии, оптимизированные под их потребности, при этом сохраняя высокие качество и надёжность.

В ноябре 2024 года сообщалось о сделке, предусматривавшей выкуп у Nokia производителя и прокладчика подводных интернет-кабелей Alcatel Submarine Networks французским государством в лице ведомства Agence des parties de l'Etat (APE). Переход прав обошёлся в €100 млн, при этом государство обязалось взять на себя обязательства по долгу ASN в размере €250 млн. Сделка была закрыта в январе 2025 года.

За плечами ASN — более 165 лет истории и более 850 тыс. км проложенных по всему миру кабелей; это приблизительно эквивалентно 21 окружности Земли. Компания располагает тремя заводами в Европе и семью кораблями для прокладки кабелей.

Постоянный URL: http://servernews.ru/1138484
18.03.2026 [12:14], Руслан Авдеев

Великобритания выделит £45 млн на ИИ-суперкомпьютер Sunrise для моделирования физики термоядерного синтеза

Власти Великобритании намерены выделить £45 млн (порядка $60 млн) на новый ИИ-суперкомпьютер, специально предназначенный для моделирования процессов, сопутствующих термоядерному синтезу. Систему планируют ввести в эксплуатацию летом 2026 года в кампусе Управления по атомной энергии Великобритании (UKAEA), сообщает The Register.

Модель Sunrise позиционируется, как самый мощный ИИ-суперкомпьютер, специально предназначенный для исследований в сфере термоядерной энергетики. Система мощностью 1,4 МВт финансируется министерским Департаментом энергетической безопасности и нулевых выбросов (Department for Energy Security and Net Zero, DESNZ). Она должна заработать в июне и станет первым элементом «Зоны роста ИИ» (AI Growth Zone) в Калхэме (Оксфордшир).

Задача Sunrise — объединение HPC- и ИИ-вычислений, оптимизированных для исследования физических процессов. Это позволит более точно моделировать различные события и создавать цифровых двойников сложных термоядерных систем до проведения дорогостоящих экспериментов в реальном мире.

Сообщается, что её производительность составит до 6,76 Эфлопс. Речь идёт скорее об ИИ-нагрузках, а не традиционных показателях для суперкомпьютеров, учитываемых в глобальных рейтингах. Тем не менее система может значительно расширить возможности моделирования для британских энергетических программ в сфере термоядерного синтеза.

 Источник изображения: Kristina Gadeikyte Gancarz/unsplash.com

Источник изображения: Kristina Gadeikyte Gancarz/unsplash.com

Также сообщается, что компьютер будет использовать ИИ-ускорители AMD EPYC и Instinct на инфраструктуре Dell PowerEdge, платформа хранения данных будет обеспечена компанией WEKA. По данным UKAEA, за классические вычислительные мощности отвечают 192 двухпроцессорных узла с 56-ядерными Intel Xeon Sapphire Rapids с HBM-памятью. Intel является одной из компаний, поддерживающих проект, наряду с образовательными и государственными структурами — Кембриджским университетом и самим UKAEA.

Представители властей подчёркивают, что система поможет решать ключевые задачи, связанные с термоядерным синтезом, от моделирования турбулентности плазмы до разработки материалов для реакторов и совершенствования технологий для получения тритиевого топлива. Кроме того, предполагается создание цифровых двойников оборудования, что позволит снизить затраты и риски.

Суперкомпьютер будет работать на ряд британских энергетических инициатив, включая программу LIBRTI (Lithium Breeding Tritium Innovation), призванную решить проблему производства трития, а также флагманский правительственный проект STEP, предполагающий создание прототипа электростанции на основе сферического токамака. Великобритания рассчитывает построить его в Ноттингемшире в 2040-х гг.

Также Sunrise является частью более широкой инициативы британского правительства, предусматривающей расширение мощностей для ИИ и HPC. Ранее в 2026 году правительство страны подтвердило инвестиции £36 млн (порядка $48 млн) в суперкомпьютерный центр в Кембридже. Тем временем кампус в Калхэме, вероятно, станет центром ИИ-вычислений, связанных с исследованиям ив сфере энергетики.

Пока неизвестно, поможет ли искусственный интеллект значительно ускорить довольно медленное продвижение к созданию коммерческих термоядерных проектов. Великобритания делает ставку на то, что увеличение вычислительных мощностей поможет решить одну из ключевых задач физики, имеющих важнейшее прикладное значение.

Ещё в 2025 году сообщалось, что на появление коммерческих термоядерных реакторов рассчитывает Microsoft, средства в технологию вкладывают и другие компании — например, в сентябре 2025 года Commonwealth Fusion Systems привлекла на развитие своей термоядерной программы ещё $863 млн, а NVIDIA и General Atomics создали виртуальный термоядерный реактор с помощью ИИ. Впрочем, коммерческих версий термоядерных реакторов пока не существует.

Постоянный URL: http://servernews.ru/1138477
18.03.2026 [10:39], Руслан Авдеев

Глава NVIDIA объявил о запуске производства ускорителей H200 для Китая

После длительной паузы в торговле на огромном рынке китайских ИИ-проектов, NVIDIA готовится к возвращению. Её глава Дженсен Хуанг (Jensen Huang) заявил о том, что компания будет поставлять ИИ-ускорители некоторым клиентам в КНР, сообщает CNBC.

По словам Хуанга, выступавшего на конференции GTC в Калифорнии, компания уже получила заказы из Китая и находится «в процессе» возобновления производства, а цепочка поставок наращивает активность. Хуанг подчеркнул, что ситуация отличается от того, что было три или даже две недели назад.

Ранее сообщалось, что поставки NVIDIA H200 одобрили как американские, так и китайские власти. Теперь эти данные подтвердил и Дженсен Хуанг.

В своё время на Китай приходилось около 20 % выручки NVIDIA в сегменте продуктов для ЦОД, но компании фактически запретили работать с КНР после того, как в апреле 2025 года администрация президента США Дональда Трампа (Donald Trump) объявила о необходимости для компании получать лицензии на экспорт чипов в Китай и некоторые другие страны. NVIDIA заявила, что экспортные ограничения привели к убыткам в объёме $5,5 млрд.

Действовавшие ранее ограничения заставили NVIDIA специально разработать для китайского рынка ослабленные ускорители H20. После прихода Трампа продажи таких ускорителей изначально были приостановлены, но в декабре 2025 года политика изменилась и NVIDIA разрешили поставлять в Китай более производительные ускорители H200 — при условии, что бюджет США будет получать 25 % от выручки.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

При этом в прошлом месяце никаких изменений на рынке не наблюдалось. После публикации финансового отчёта 25 февраля компания сообщила, что американские власти одобрили продажу в КНР «небольшого количества» H200, но никакой выручки на тот момент ещё не было.

Задержка с возвращением на рынок была связана с ужесточением требований к обеспечению безопасности в обеих странах — несмотря на то, что Хуанг активно занимался лоббированием в США, а в начале 2026 года посетил и Китай.

Впрочем, даже без учёта продаж в КНР NVIDIA отчиталась о росте выручки в последнем квартале на 73 % год к году — это уже 11-й подряд период роста, превышающего 55 % ежеквартально.

В текущем квартале NVIDIA рассчитывает на рост в 77 % и подчёркивает, что таких показателей она намерена добиться без учёта выручки от рынка дата-центров в Китае.

Пока в США требования к получению экспортных лицензий остаются весьма обременительными: ограничиваются объёмы поставок, требуется обязательное тестирование продукции сторонними организациями, а доля от продаж, подлежащая передаче в государственный бюджет, остаётся значительной.

При этом стоит отметить, что недавно Министерство торговли США отозвало законопроект, ограничивавший новый порядок экспорта ИИ-чипов в любую точку мира без разрешения американских властей.

Постоянный URL: http://servernews.ru/1138472
18.03.2026 [08:44], Сергей Карасёв

NVIDIA выпустила однослотовый ускоритель RTX Pro 4500 Blackwell Server Edition с 32 Гбайт памяти GDDR7

Компания NVIDIA анонсировала ускоритель RTX Pro 4500 Blackwell Server Edition, подходящий для решения таких задач, как ИИ-инференс, анализ данных, обработка видеоматериалов и пр. Новинка ориентирована на дата-центры, облачные платформы и периферийные инфраструктуры.

Решение выполнено на архитектуре Blackwell. Конфигурация включает 10 496 ядер CUDA, 82 ядра RT четвёртого поколения, а также 32 Гбайт памяти GDDR7 с 256-битной шиной и пропускной способностью 800 Гбайт/с. Задействованы тензорные ядра пятого поколения, которые обеспечивают до трёх раз более высокую производительность по сравнению с более ранними изделиями и предлагают поддержку режима FP4. Карта получила однослотовое исполнение FHFL и пассивное охлаждение. Заявленное энергопотребление составляет 165 Вт. Для подключения служит интерфейс PCIe 5.0 x16.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

ИИ-быстродействие на операциях FP4 (Tensor Core) достигает 1,6 Пфлопс, FP8 (Tensor Core) — 811 Тфлопс, FP16/BF16 (Tensor Core) — 406 Тфлопс, TF32 (Tensor Core) — 203 Тфлопс. Как отмечает NVIDIA, по сравнению с системами, работающими только на основе CPU, ускоритель RTX Pro 4500 Blackwell Server Edition обеспечивает до 100 раз более высокую производительность при анализе видеоматериалов с помощью алгоритмов ИИ. Благодаря этому компании могут извлекать данные из видеопотока в режиме реального времени, ускоряя работу приложений компьютерного зрения — как в ЦОД, так и на периферии.

Предусмотрены три аппаратных движка NVIDIA NVENC девятого поколения. Они имеют поддержку кодирования 4:2:2 H.264 и HEVC, а также улучшают качество при работе с HEVC и AV1. Вместе с тем три движка NVIDIA NVDEC шестого поколения демонстрируют вдвое более высокую пропускную способность при декодировании материалов H.264, а также поддерживают 4:2:2 H.264 и HEVC.

Постоянный URL: http://servernews.ru/1138469
17.03.2026 [22:28], Андрей Крупин

В России утверждён план развития высокопроизводительных вычислений и суперкомпьютерной инфраструктуры

Правительство РФ утвердило план мероприятий, в рамках которого будут создаваться дополнительные условия для развития суперкомпьютерных технологий, искусственного интеллекта и вычислительных систем. Документ включает конкретные сроки мероприятий и их исполнителей, а также предполагает десятикратное увеличение совокупной мощности отечественных суперкомпьютеров к 2030 году.

Согласно дорожной карте, в ближайшие несколько лет в России должна начаться реализация масштабной программы, включающей комплекс мероприятий, направленных на формирование единых требований к суперкомпьютерным центрам коллективного пользования, определение порядка предоставления доступа к ним научного сообщества и ключевых организаций промышленности, а также перспектив их дальнейшего развития и модернизации. В процессе работы по этому направлению планируется сформировать стратегию дальнейшего развития и правила функционирования национальной исследовательской компьютерной сети нового поколения, которая объединяет сотни ведущих вузов и научных организаций. Предполагается, что развитие коммуникационной инфраструктуры расширит возможности для проведения исследований, требующих обработки и передачи больших объёмов данных.

 Суперкомпьютер «Политехник РСК Торнадо» производства группы компаний РСК, установленный в Санкт-Петербургском политехническом университете Петра Великого (источник изображения: «РСК Технологии» / rscgroup.ru)

Суперкомпьютер «Политехник РСК Торнадо» производства группы компаний РСК, установленный в Санкт-Петербургском политехническом университете Петра Великого (источник изображения: «РСК Технологии» / rscgroup.ru)

Часть мероприятий дорожной карты направлена на разработку концепции профильной федеральной научно-технической программы, в рамках которой будет предусмотрено создание, развитие и внедрение отечественных алгоритмов, методов и программного обеспечения для проведения суперкомпьютерных вычислений в различных отраслях экономики. Научно-техническая программа в том числе подразумевает формирование новых и развитие имеющихся образовательных и дополнительных профессиональных программ по использованию суперкомпьютерных технологий и высокопроизводительных вычислений.

По мнению «К2 НейроТех» (входит в «К2Тех»), утверждение дорожной карты — важный сигнал для всего рынка. Ключевой вызов для промышленного ИИ сегодня — не отсутствие моделей, а дефицит доступных вычислительных мощностей и зрелой инфраструктуры для их эксплуатации. При этом важно разделять два типа нагрузки: обучение моделей, требующее пиковых мощностей, и инференс — постоянную эксплуатацию, которая по мере зрелости рынка будет занимать всё большую долю вычислительных затрат. Без учёта этой специфики даже десятикратный рост мощностей может не дать ожидаемого экономического эффекта: «Особенно важно, что в дорожной карте уделено внимание подготовке кадров и развитию национальной исследовательской сети — без этого даже самые мощные суперкомпьютеры останутся невостребованными».

Постоянный URL: http://servernews.ru/1138459
17.03.2026 [19:23], Руслан Авдеев

AWS и NVIDIA расширят сотрудничество: в следующие 12 месяцев AWS внедрит более 1 млн ИИ-ускорителей NVIDIA

В ходе конференции NVIDIA GTC 2026 компании AWS и NVIDIA анонсировали расширение технологического сотрудничества. Речь идёт о взаимодействии в сфере ускоренных вычислений, технологий интерконнекта, настройки ИИ-моделей и инференса.

Основные планы сотрудничества включают использование AWS в облачных регионах по всему миру более 1 млн новых ИИ-ускорителей NVIDIA, в т.ч. семейств Blackwell и Rubin. AWS уже предлагает облачные инстансы на основе ускорителей NVIDIA для ИИ и машинного обучения. Также продолжается сотрудничество в сфере сетевых технологий NVIDIA Spectrum.

Ведётся подготовка к запуску новых инстансов EC2 на основе ускорителей NVIDIA RTX Pro 4500 Blackwell Server Edition. AWS станет первым крупным облачным провайдером, анонсировавшим поддержку этих ускорителей. Эти инстансы предназначены для аналитики, «говорящих» ИИ-систем, генерации контента, рекомендательных систем, видеостриминга, видеорендеринга и др.

Они будут построены на архитектуре AWS Nitro System, позволяющей полностью использовать ресурсы выделенного оборудования для пользовательских задач. Также Nitro System обеспечивает высокий уровень безопасности — доступ к данным и рабочим процессам получают только сами пользователи, его не имеют даже сотрудники AWS. При этом система обновляется и оптимизируется без остановки работы.

С ростом инфраструктуры ключевой проблемой становится взаимодействие между ускорителями NVIDIA и AWS Trainium. Компании объявили о поддержке библиотеки NVIDIA Inference Xfer Library (NIXL) и AWS Elastic Fabric Adapter (EFA), что позволяет ускорить распределённый инференс ИИ-моделей на Amazon EC2. Подобная архитектура распределённого инференса позволяет эффективно совмещать вычисления и передачу данных, снижать задержки и максимизировать использование ИИ-ускорителей. NIXL с EFA интегрируются с популярными открытыми фреймворками, включая NVIDIA Dynamo, vLLM и SGLang.

 Источник изображения: AWS

Источник изображения: AWS

Дополнительно AWS и NVIDIA объявили об использовании Apache Spark в конфигурации Amazon EMR на Amazon EKS с инстансами G7e на основе ускорителей NVIDIA RTX Pro 6000 Blackwell, что втрое ускоряет аналитику данных. При этом сохраняется совместимость с имеющимися приложениями Spark.

Наконец, компании объявили о расширении поддержки ИИ-моделей NVIDIA Nemotron в облаке Amazon Bedrock с адаптацией моделей для юриспруденции, здравоохранения, финансов и других специализированных областей. Вся инфраструктура управляется Bedrock, что значительно упрощает задачи разработчиков. Вскоре ожидается появление гибридной MoE-модели NVIDIA Nemotron 3 Super для финансовых сервисов, кибербезопасности, ретейла, разработки ПО и др.

В целом компании создали полный стек ИИ-инфраструктуры — от ИИ-ускорителей и сетей до управляемых сервисов. Это позволит клиентам быстрее внедрять ИИ-решения, не конструируя инфраструктуру из разрозненных компонентов.

Как сообщает Datacenter Dynamics, в феврале 2026 года глава AWS Мэтт Гарман (Matt Garman) заявил, что компания всё ещё использовала устаревшие ускорители NVIDIA A100 в некоторых серверах, поскольку спрос был высок даже на них.

Широкий доступ к NVIDIA Blackwell Ultra появился в декабре 2025 года, в скором будущем планируется организовать доступ и к ускорителям Rubin. В то же время компания намерена инвестировать в собственные ускорители Trainium. В феврале OpenAI объявила, что будет использовать 2 ГВт мощностей на основе Trainium и других ускорителей в облаке AWS, во многом благодаря $50 млрд инвестиций со стороны Amazon.

Постоянный URL: http://servernews.ru/1138419
17.03.2026 [11:02], Руслан Авдеев

Meta✴ потратит до $27 млрд на ИИ-инфраструктуру Nebius

Meta Platforms в течение пяти лет намерена заплатить $27 млрд за ИИ-инфраструктуру, доступ к которой предоставит облачный провайдер Nebius Group, базирующийся в Нидерландах, сообщает Bloomberg. В Meta подтвердили сделку с Nebius.

Nebius — стратегический партнёр NVIDIA, с 2027 года предоставит Meta мощности ЦОД на $12 млрд, ещё до $15 млрд Meta потратит на покупку мощностей, которые облачный провайдер строит для сторонних клиентов.

Это один из крупнейших «разовых» контрактов, заключенных Meta, что подчёркивает стремление компании развиваться в сфере ИИ. Недавно появилась информация, что компания сократит более 20 % штата из-за высоких затрат на ИИ-проекты. В 2025 году она уже заключила сделку с Nebius на $3 млрд.

За последние 12 месяцев акции Nebius выросли в цене в четыре раза, а на фоне новостей подорожали на 15 %, а Meta — на 2,8 %.

 Источник изображения: Nebius

Источник изображения: Nebius

Предполагается, что Meta и её крупнейшие конкуренты потратят в 2026 году около $650 млрд на строительство ЦОД и покупку другой инфраструктуры на фоне взрывного роста спроса на ИИ-сервисы в ближайшие годы. Для Meta ИИ в последнее время является ключевым приоритетом и компания вкладывает значительные средства в конкуренцию с OpenAI, Google и др. С начала года заключены соглашения с NVIDIA и AMD о создании ИИ-инфраструктуры. Кроме того, Meta разрабатывает и собственные ИИ-ускорители.

В 2025 году заявлялось, что к 2028 году Meta потратит на инфраструктурные инициативы в США $600 млрд. Для этого она будет использовать средства, вырученные от рекламного бизнеса и внешнее финансирование. Компания разрабатывает также и собственные ИИ-модели и др.

 Источник изображения: Bloomberg

Источник изображения: Bloomberg

Nebius, отделившаяся от «Яндекса» в 2024 году, — один из немногих новичков, очень успешно воспользовавшихся бумом ИИ-технологий; при этом немаловажную роль играет NVIDIA, активно инвестирующая в стартапы, конкурирующие с гиперскейлерами вроде Google и Amazon (AWS). На днях NVIDIA объявила о намерении инвестировать в Nebius $2 млрд, что привело к росту акций последней на 16 %.

Значительная часть инвестиций NVIDIA была направлена компаниям, покупающим её собственные чипы. Это вызвало критику экспертов рынка, опасающихся, что такие инвестиции подпитывают создание ИИ-пузыря.

Например, в январе NVIDIA сообщила об инвестициях $2 млрд в неооблачного провайдера CoreWeave, конкурирующего с Nebius, средства предназначались на внедрение ИИ-ускорителей самой NVIDIA.

В 2026 году компания вложила $30 млрд в OpenAI, а также принимала участие в очередном раунде финансирования британской Nscale, желавшей привлечь $2 млрд.

В январе сообщалось, что затраты Meta на связанные с ИИ расходы в 2026 году составят от $115 до $135 млрд, это превышает прогнозы аналитиков в $110,7 млрд и почти вдвое больше, чем капитальные затраты компании в 2025 году, которые составили $72,2 млрд. Роста затрат направлен на поддержку подразделения Meta Superintelligence Labs (MSL), а также основной повседневной деятельности компании.

Постоянный URL: http://servernews.ru/1138401
17.03.2026 [10:21], Сергей Карасёв

NVIDIA представила центральные процессоры Vera с 88 ядрами Olympus для ИИ и не только

Компания NVIDIA анонсировала процессоры Vera, спроектированные с прицелом на современные ресурсоёмкие задачи в области ИИ. Изделия, как утверждается, обеспечивают исключительную производительность каждого ядра, а также высокую пропускную способность памяти и коммутационной сети.

В основу Vera положены ядра Olympus — это первые CPU-решения NVIDIA, специально разработанные для дата-центров. Olympus используют 10-битный интерфейс выборки и декодирования инструкций, а также нейронный алгоритм предсказания ветвлений, позволяющий оценивать два варианта ветвления за каждый цикл. Изделие полностью совместимо с набором инструкций Arm v9.2 и существующим ПО.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Конфигурация Vera предусматривает наличие 88 ядер Olympus с возможностью одновременной обработки до 176 потоков инструкций. Объём кеша L3 составляет 162 Мбайт. Задействована шина NVIDIA Scalable Coherency Fabric (SCF) второго поколения, первоначально разработанная для CPU семейства NVIDIA Grace. В составе процессора SCF отвечает за связь вычислительных ядер Olympus с общим кешем L3 и подсистемой памяти, обеспечивая стабильную задержку и пропускную способность на уровне 3,4 Тбайт/с: это позволяет использовать более 90 % пиковой пропускной способности памяти под нагрузкой. Каждому ядру Olympus доступна полоса до 14 Гбайт/с, что примерно в три раза превышает пропускную способность на ядро ​​в традиционных CPU для дата-центров.

В составе Vera применяется подсистема памяти LPDDR5X на основе модулей SOCAMM (Small Outline Compression Attached Memory Modules). Суммарная ёмкость может составлять до 1,5 Тбайт, что втрое больше по сравнению с решениями предыдущего поколения. Пропускная способность памяти достигает 1,2 Тбайт/с, тогда как энергопотребление составляет менее 50% по сравнению с традиционными конфигурациями DDR. При этом модули SOCAMM являются заменяемыми, что упрощает модернизацию и обслуживание систем.

Процессор Vera выполнен на основе единого монолитного вычислительного кристалла. Каждое ядро обеспечивается единообразной пропускной способностью. Большинство операций, чувствительных к задержкам, выполняются локально, что позволяет минимизировать межкристальный трафик, который обычно присутствует в традиционных CPU. В целом, как утверждается, реализованные архитектурные особенности позволяют чипам Vera демонстрировать до 1,5 раз более высокую производительность одного ядра по сравнению с конкурирующими решениями x86 при выполнении задач в песочнице с максимальной нагрузкой на сокет.

NVIDIA разработала семейство платформ на базе Vera для решения разнообразных задач в сфере ИИ. Это, в частности, CPU-стойки с жидкостным охлаждением, а также системы с GPU поколения Rubin. Устройства на базе Vera будут поставляться крупными OEM-производителями, включая Cisco, Dell, HPE, Lenovo и Supermicro. Такие машины станут доступны во II половине текущего года. 

Постоянный URL: http://servernews.ru/1138398
17.03.2026 [02:00], Владимир Мироненко

ИИ-ускорители Groq прописались в платформе NVIDIA Vera Rubin

NVIDIA объявила о том, что платформа Vera Rubin, объединяющая теперь уже семь различных чипов (ещё в январе их было шесть), которые вместе откроют новые горизонты агентного ИИ, запущена в производство. Платформа включает Arm-процессоры Vera, ускорители Rubin, интерконнект NVLink 6, адаптеры ConnectX-9 SuperNIC и DPU BlueField-4, а также Ethernet-коммутаторы Spectrum/Quantum-6. Седьмым чипом стал LPU Groq 3 — NVIDIA купила Groq за рекордные $20 млрд всего три месяца назад и активно наращивает производство LPU.

Благодаря такому сочетанию компонентов платформа обеспечивает обработку ИИ-нагрузок на всех этапах — от масштабного предварительного обучения, постобучения и масштабирования во время тестирования до инференса агентных задач в реальном времени, говорит NVIDIA. «Vera Rubin — это скачок в развитии — семь прорывных чипов, пять стоек, один гигантский суперкомпьютер — созданный для обеспечения всех этапов работы ИИ», — сообщил Дженсен Хуанг (Jensen Huang), основатель и генеральный директор NVIDIA. Он отметил, что с появлением Vera Rubin в развитии агентного ИИ наступил переломный момент, положившей начало «крупнейшему в истории развёртыванию инфраструктуры».

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

«Платформа NVIDIA Vera Rubin предоставляет нам вычислительные ресурсы, сетевые возможности и системную архитектуру, позволяющие продолжать работу, одновременно повышая безопасность и надёжность, на которые полагаются наши клиенты», — подтвердил Дарио Амодеи (Dario Amodei), генеральный директор и соучредитель Anthropic. «Инфраструктура NVIDIA — это основа, которая позволяет нам расширять границы ИИ, — заявил Сэм Альтман (Sam Altman), генеральный директор OpenAI. — С NVIDIA Vera Rubin мы будем запускать более мощные модели и агентов в огромных масштабах и предоставлять более быстрые и надёжные системы сотням миллионов людей».

Как отметила компания, Vera Rubin предлагает самую обширную комплексную ИИ-платформу — суперкомпьютер с множеством стоек, специально разработанных для ИИ, работающих как одна массивная, целостная система. NVIDIA Vera Rubin NVL72 обеспечивает высокую эффективность в обучение больших MoE-моделей с использованием вчетверо меньшего количества ускорителей по сравнению с платформой Blackwell и достижение до 10 раз большей пропускной способности инференса на ватт при в десять раз меньшей стоимости токена.

CPU-стойка Vera — это высокоплотная MGX-платформа с СЖО, объединяющая 256 процессоров Vera для обеспечения масштабируемой, энергоэффективной производительности с первоклассной однопоточной обработкой, что обеспечивает возможности для масштабируемого агентного ИИ. Стойки Vera имеют тесную синхронизацию сред во всей ИИ-фабрике. Вместе со стойками Rubin они обеспечивают основу крупномасштабных систем агентного ИИ и обучения с подкреплением — при этом Vera обеспечивает результаты в два раза эффективнее и наполовину быстрее, чем традиционные CPU (впрочем, в NVL8 по-прежнему будут Intel Xeon).

Стойки Groq 3 LPX (тоже с СЖО и тоже на базе MGX) и Vera Rubin, разработанные для обеспечения низкой задержки и обработки больших контекстов, необходимых для агентных систем, обеспечивают до 35 раз более высокую пропускную способность инференса на мегаватт и до 10 раз больший потенциал дохода для моделей с триллионами параметров. В масштабе предприятия парк LPU функционирует как единый гигантский процессор для быстрого и детерминированного ускорения инференса.

Стойка LPX с 256 LPU-чипами имеет 128 Гбайт SRAM с агрегированной пропускной способностью 640 Тбайт/с. В сочетании с Vera Rubin NVL72 чипы LPU повышают эффективность декодирования, совместно вычисляя каждый слой модели ИИ для каждого выходного токена. Всё это позволяет работать с моделями с триллионами параметров и контектсным окном в миллионы токенов, сохраняя максимальную эффективность по энергопотреблению, памяти и вычислительным ресурсам. Любопытно, что Rubin CPX в этот раз NVIDIA решила особо не упоминать.

Анонсированная вместе с Vera Rubin СХД BlueField-4 STX разработана специально для ИИ-нагрузок, обеспечивая бесперебойное расширение памяти GPU по всему POD-кластеру. Впрочем, теперь компания говорит, что BlueField-4 включает CPU Vera, а не Grace, и ConnectX-9 SuperNIC. STX обеспечивает высокоскоростной общий слой данных, оптимизированный для хранения и извлечения больших объёмов KV-кеша, генерируемых LLM и рабочими процессами агентного ИИ. А программная платформа DOCA Memos позволяет использовать выделенное KV-хранилище для увеличения пропускной способности инференса до пяти раз, также повышая энергоэффективность по сравнению с архитектурами хранения общего назначения.

Также NVIDIA совместно с более чем 200 партнёрами анонсировала платформу NVIDIA DSX для Vera Rubin, которая включает технологию DSX Max-Q, позволяющую динамически управлять питанием всей ИИ-фабрики целиком, позволяя увеличить на 30 % ИИ-инфраструктуру в ЦОД при том же энергопотреблении. ПО DSX Flex обеспечивает ИИ-фабрикам гибкость в работе с энергосетями, позволяя освоить до 100 ГВт неиспользуемой мощности сетей. Кроме того, NVIDIA выпустила эталонный проект Vera Rubin DSX AI Factory — схему для совместно разработанной ИИ-инфраструктуры, которая максимизирует количество токенов на ватт и общую пропускную способность, повышая отказоустойчивость системы и ускоряя развётывание.

 В Microsoft Azure появились первые Vera Rubin (Источник изображения: X/@satyanadella)

В Microsoft Azure появились первые Vera Rubin (Источник изображения: X/@satyanadella)

Продукты на базе Vera Rubin будут доступны у партнёров NVIDIA, начиная со II половины этого года. В их число входят гиперскейлеры AWS, Google Cloud, Microsoft Azure и Oracle Cloud, а также партнёры NVIDIA Cloud — CoreWeave, Crusoe, Lambda, Nebius, Nscale и Together AI. Ожидается, что широкий спектр серверов на базе продуктов Vera Rubin будут поставлять глобальные производители систем Cisco, Dell Technologies, HPE, Lenovo и Supermicro, а также Aivres, ASUS, Foxconn, GIGABYTE, Inventec, Pegatron, Quanta Cloud Technology (QCT), Wistron и Wiwynn.

Постоянный URL: http://servernews.ru/1138393
16.03.2026 [10:54], Руслан Авдеев

Reuters: Meta✴ планирует уволить каждого пятого, чтобы компенсировать расходы на ИИ-проекты

Компания Meta намерена провести масштабные сокращения штата, способные затронуть 20 % сотрудников или даже более. Предполагается, что это поможет компенсировать большие расходы на создание ИИ-инфраструктуры и «подготовиться» к повышению эффективности, связанному с массовым внедрением ИИ, сообщает Reuters со ссылкой на три источника, знакомых с вопросом.

Источники свидетельствуют, что точная дата сокращений ещё не названа и их масштабы ещё не определены. По некоторым сведениям, топ-менеджмент недавно уведомил ряд других руководителей Meta о предстоящих событиях и поручил начать планирование сокращения расходов. В самой компании поспешили заявить, что речь идёт о «спекулятивных заявлениях» и «теоретических выкладках».

Если Meta согласует увольнение 20 % сотрудников, это станет самым значимым для компании раундом сокращений с момента реструктуризации в конце 2022 — начале 2023 года. Этот период тогда назывался «годом эффективности», когда было уволено в общей сложности более 20 тыс. человек. По последним данным, на 31 декабря 2025 года в компании работало около 79 тыс. человек.

В последнее время глава Meta Марк Цукерберг (Mark Zuckerberg) поощряет более активное участие компании в ИИ-проектах. Для привлечения лучших специалистов в области ИИ предлагаются крупные компенсационные пакеты: выплаты новой команде для создания «суперинтеллекта» на ближайшие четыре года оценивались в сотни миллионов долларов.

 Источник изображения: Allef Vinicius/unsplash.com

Источник изображения: Allef Vinicius/unsplash.com

Более того, компания заявляла о намерении инвестировать $600 млрд в строительство ЦОД к 2028 году. Не так давно сообщалось, что компания тратит не менее $2 млрд на покупку китайского ИИ-стартапа Manus и др. При этом Цукерберг ещё в январе 2026 года подчёркивал, что проекты, ранее требовавшие больших команд, теперь могут выполняться одним очень талантливым человеком.

Запланированные Meta инвестиции в ИИ последовали за рядом неудач с моделями семейства Llama 4 в 2025 году. В конце концов компания отказалась от выпуска крупнейшей версии модели под названием Behemoth, планировавшейся на лето.

В текущем году команда по созданию «сверхразума» работала над восстановлением позиций компании на рынке ИИ, создав модель Avocado, однако и она не оправдала ожиданий.

В январе сообщалось, что затраты компании на связанные с ИИ расходы в 2026 году составят от $115 до $135 млрд, это превышает прогнозы аналитиков в $110,7 млрд и почти вдвое больше, чем капитальные затраты компании в 2025 году, которые составили $72,2 млрд. Роста затрат направлен на поддержку подразделения Meta Superintelligence Labs (MSL), а также основной повседневной деятельности компании.

В том же месяце появилась информация, что Meta создаёт подразделение Meta Compute для строительства ИИ ЦОД на десятки гигаватт, в феврале появились данные, что компания получит миллионы ИИ-ускорителей Google TPU, а в марте — сведения о том, что она представила четыре новых собственных ИИ-ускорителя MTIA с FP8-производительностью до 10 Пфлопс.

Постоянный URL: http://servernews.ru/1138350

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;