Материалы по тегу: ии

08.09.2025 [17:48], Владимир Мироненко

Microsoft предоставила скидки госагентствам США на более чем $6 млрд

Управление общих служб США (GSA) объявило о заключении соглашения с Microsoft в рамках новой политики закупок OneGov, введённой администрацией Дональда Трампа (Donald Trump) и призванной консолидировать ИТ-расходы через единый канал. Вместо того чтобы каждое ведомство заключало собственные контракты, OneGov предписывает им осуществлять закупки через GSA.

Новое соглашение предусматривает значительные скидки на пакет облачных сервисов, который Microsoft предоставит агентствам США, включая Microsoft 365, Copilot, Azure, Dynamics 365, а также инструменты кибербезопасности и мониторинга, и даже семинары по внедрению, адаптации и оптимизации, что позволит сэкономить им $3,1 млрд в первый год. В частности, Microsoft 365 Copilot будет предоставляться бесплатно клиентам Microsoft G5 в течение до 12 месяцев с дополнительными скидками в последующие годы, что свидетельствует о намерении Microsoft сделать своего ИИ-помощника стандартным элементом правительственных рабочих процессов.

Microsoft 365 G3 и G5 — планы лицензирования для государственных учреждений с различными уровнями безопасности и функциональности. G5 специально разработан для сред, требующих повышенной безопасности, и включает в себя дополнительные функции, такие как аналитика в режиме реального времени, защита от угроз, Power BI Pro и расширенные возможности корпоративной телефонии.

Федеральные агентства могут воспользоваться всеми этими предложениями или любыми из них до сентября 2026 года, при этом скидки на некоторые продукты будут действовать до 36 месяцев. Чтобы получить право на льготы, агентства должны пройти процедуру GSA в рамках OneGov. Не все агентства имеют право на более низкие ставки.

 Источник изображения: Matthew Manuel/unsplash.com

Источник изображения: Matthew Manuel/unsplash.com

За полный трёхлетний период общая экономия правительственных агентств может превысить $6 млрд, что делает предоставляемые Microsoft скидки одними из самых крупных среди предоставленных компаниями правительству, отметил ресурс Windows Central. Генеральный директор Microsoft Сатья Наделла (Satya Nadella) лично участвовал в подписании соглашения, пообщавшись напрямую с Джошем Грюнбаумом (Josh Gruenbaum), главой Федеральной службы закупок (Federal Acquisition Service), что демонстрирует, насколько важна эта сделка для компании.

Сделки с GSA в рамках OneGov заключил целый ряд компаний. Adobe предложила скидку 70 % на своё решение для безбумажного правительства, доступное до ноября 2025 года. Соглашение с Amazon предполагает предоставление всем агентствам облачных кредитов на сумму до $1 млрд на модернизацию их инфраструктуры, а также большую экономию в рамках прямых контрактов. В свою очередь, Google представила скидку 71 % на Google Workspace. В сфере ИИ скидки ещё более внушительные. Claude for Enterprise от Anthropic доступен для всех трёх ветвей власти всего за $1 на агентство, OpenAI предлагает ChatGPT Enterprise по такой же цене. Однако соглашение действует только один год.

GSA контролирует около $110 млрд расходов на общие товары и услуги, предоставляемые многими агентствами, включая около $80 млрд расходов, связанных с ИТ. Годовой доход Microsoft от правительственных контрактов, вероятно, составляет несколько миллиардов долларов, сказал Грюнбаум, о чём сообщает CNBC. Вместе с тем некоторые эксперты считают продукты Microsoft угрозой национальной безопасности из-за многочисленных уязвимостей. Кроме того, компанию подозревали в антиконкурентном поведении ради сохранения правительственных контрактов.

Постоянный URL: http://servernews.ru/1128895
08.09.2025 [17:26], Владимир Мироненко

d-Matrix начала тестирование чипа Pavehawk с поддержкой 3DIMC

Стартап d-Matrix объявил о разработке новой реализации технологии 3D-вычислений в памяти (3DIMC), которая обещает в 10 раз ускорить работу ИИ-моделей и в 10 раз повысить энергоэффективность по сравнению с текущим отраслевым стандартом HBM4, пишет ресурс SiliconANGLE.

Технический директор Судип Бходжа (Sudeep Bhoja) сообщил в блоге, что первый чип компании с поддержкой 3DIMC, d-Matrix Pavehawk, разработка которого заняла более двух лет, сейчас проходит тестирование. В Pavehawk логический блок, изготовленный с использованием 5-нм техпроцесса TSMC, располагается поверх чипа памяти и интегрирован с ним посредством технологии F2F (face-to-face).

По словам Бходжи, отраслевые тесты показывают, что производительность вычислений растёт примерно в 3 раза каждые два года, в то время как пропускная способность памяти — всего в 1,6 раза. Этот разрыв постоянно увеличивается, память уже стала узким местом в масштабировании ИИ. Компания утверждает, что простое увеличение количества ускорителей в ЦОД не решит проблему «стены памяти».

 Источник изображений: d-Matrix/ServeTheHome

Источник изображений: d-Matrix/ServeTheHome

HPCwire цитирует гендиректора: d-Matrix Сида Шета (Sid Sheth): «Модели быстро развиваются, и традиционные системы памяти HBM становятся очень дорогими, энергоёмкими и ограниченными по пропускной способности». По его словам, узким местом ИИ-инференса является память, а не только количество операций с плавающей запятой, но 3DIMC меняет правила игры. «Стекируя память в трёх измерениях и обеспечивая её более тесную интеграцию с вычислениями, мы значительно сокращаем задержку, увеличиваем пропускную способность и открываем новые возможности повышения эффективности», — подчеркнул он.

Компания отметила, что инференс, а не обучение, быстро становится доминирующей рабочей ИИ-нагрузкой. По словам Бходжи, CoreWeave недавно заявила, что 50 % её рабочих нагрузок теперь приходится на инференс, и аналитики прогнозируют, что в течение следующих двух-трех лет инференс будет составлять более 85 % всех корпоративных рабочих ИИ-нагрузок. Он подчеркнул, что компания не занимается перепрофилированием архитектур, созданных для обучения ИИ-моделей, — она с нуля разрабатывает решения, ориентированные на инференс.

Бходжа сообщил, что первые пользователи ИИ-ускорителей Corsair, среди которых есть и гиперскейлеры, и неооблака, убедились, что архитектура с упором на память может значительно повысить пропускную способность, энергоэффективность и скорость генерации токенов по сравнению с GPU. Он также отметил, что конструкция на основе чиплетов обеспечивает не только большую пропускную способность памяти, но и «невероятную» гибкость, позволяя внедрять технологии памяти нового поколения быстрее и эффективнее, чем монолитные архитектуры.

Бходжа заявил, что 3DIMC на порядок увеличит пропускную способность памяти и производительность для задач ИИ-инференса и обеспечит провайдерам сервисов и предприятиям возможность масштабировать их эффективно и экономично по мере появления новых моделей и приложений. С выводом Pavehawk на рынок компания занялось созданием следующего поколения архитектуры обработки в оперативной памяти, использующей 3DMIC, под названием Raptor.

«Наша архитектура следующего поколения Raptor будет включать 3DIMC и опираться на опыт, полученный нами и нашими клиентами в ходе тестирования Pavehawk. Благодаря вертикальному размещению памяти и тесной интеграции с вычислительными чиплетами, Raptor обещает преодолеть барьер в области памяти и выйти на совершенно новый уровень производительности и совокупной стоимости владения», — утверждает Бходжа.

Он добавил, что, поставив требования к памяти во главу угла при разработке своих решений — от Corsair до Raptor и далее — компания гарантирует, что инференс будет быстрее, доступнее и стабильнее при масштабировании. d-Matrix провела два раунда финансирования. В раунде A в 2022 году было привлечено $44 млн, а в раунде B в 2023 году – $110 млн, что в общей сложности составляет $154 млн. Компания сотрудничает с поставщиком решений компонуемых систем GigaIO.

Постоянный URL: http://servernews.ru/1128861
08.09.2025 [13:27], Руслан Авдеев

Gemini стал доступен в частных облаках Google Distributed Cloud

Компания Google анонсировала общую доступность ИИ-моделей Gemini в облаках Google Distributed Cloud (GDC), предназначенных для развёртывания на мощностях самих клиентов. В частности, генеративный ИИ будет доступен в частных корпоративных и правительственных платформах, сообщает Network World.

GDC является вариантом облака Google Cloud, предназначенным для жёстко регулируемых отраслей вроде здравоохранения или финансовых сервисов. Фактически такие облака скрываются на мощностях клиентов, прячась от внешнего мира за защитными системами компаний. Запуск Gemini в GDC позволяет организациям, обязанным соблюдать жёсткие требования к размещению данных и соответствовать ряду правил по некоторым другим параметрам, внедрять системы генеративного ИИ, не теряя контроля над конфиденциальной информацией.

GDC строятся на ускорителях семейств NVIDIA Hopper и Blackwell с автоматизированным распределением нагрузки, без необходимости дополнительных вмешательств для обновления ПО. В системе реализованы функции безопасности вроде аудита и контроля доступа, обеспечивающие клиентам максимальную прозрачность. Платформа также поддерживает функцию «конфиденциальных вычислений» Confidential Computing как для CPU (с Intel TDX), так и ИИ-ускорителями (с применением технологий NVIDIA) для защиты конфиденциальных данных и предотвращения их подделки и утечки.

 Источник изображения: Solen Feyissa/unspalsh.com

Источник изображения: Solen Feyissa/unspalsh.com

Модели Gemini обеспечивают обработку контента и мультимодальное понимание текста, изображений, аудио и видео. В Google заявляют, что это открывает множество возможных способов применения, включая многоязыковое, в том числе международное сотрудничество, автоматизированное составлении резюме документов и др., поддерживаются чат-боты и генерация кода с помощью искусственного интеллекта.

 Источник изображения: Google

Источник изображения: Google

Для работы Gemini требуется сертифицированное Google оборудование. Среди такового пока есть только одна модификация HGX H200 на базе Dell XE9680.

Постоянный URL: http://servernews.ru/1128882
08.09.2025 [12:11], Сергей Карасёв

Бывший гендиректор AWS Адам Селипски назначен на пост консультанта KKR по ИИ

Инвестиционная компания KKR, по сообщению ресурса Datacenter Dynamics, назначила на должность старшего консультанта по стратегиям в области технологий и ИИ Адама Селипски (Adam Selipsky), который ранее занимал пост генерального директора облачного провайдера Amazon Web Services (AWS).

Селипски с 1995-го по 2005 год работал в компании RealNetworks. Затем стал вице-президентом по маркетингу и поддержке AWS: в этой корпорации он проработал 11 лет, после чего в 2016 году возглавил разработчика ПО для визуализации данных Tableau. В 2021 году вернулся в Amazon, начав исполнять обязанности гендиректора AWS.

В KKR Селипски займётся вопросами стратегии, распределения капитала и управления бизнесом Real Assets стоимостью $179 млрд. Речь идёт об активах в сферах дата-центров, оптоволоконных и беспроводных сетей, а также энергетики. В настоящее время KKR владеет и управляет большим количеством ЦОД — 155 объектов по всему миру, а также имеет проектные мощности на 15 ГВт. В активе KKR — двенадцать компаний, которые специализируются на оптоволоконных сетях, обслуживающих почти 30 млн домохозяйств. Компания управляет более чем 130 тыс. объектов беспроводной инфраструктуры по всей Европе и в Азиатско-Тихоокеанском регионе.

 Источник изображения: AWS

Источник изображения: AWS

Кроме того, KKR является владельцем фирмы CoolIT, специализирующейся на разработке систем прямого жидкостного охлаждения. В начале текущего года KKR инвестировала средства в Gulf Data Hub — одного из крупнейших операторов дата-центров на Ближнем Востоке. KKR также подписала соглашение на $50 млрд о стратегическом партнёрстве с американской инвестиционной компанией Energy Capital Partners (ECP) с целью строительства ЦОД и реализации энергетических проектов.

Ранее KKR в партнёрстве с T-Mobile приобрела поставщика услуг широкополосного доступа в интернет Metronet. Плюс к этому KKR является совладельцем оператора ЦОД CyrusOne. Сообщается также, что KKR ведёт переговоры о приобретении ST Telemedia Global Data Centres, в которой ей принадлежит доля в 15 %, и финансировании дата-центров Meta.

Постоянный URL: http://servernews.ru/1128869
08.09.2025 [09:29], Сергей Карасёв

DE-CIX запустила первую в мире платформу обмена ИИ-трафиком

Оператор точек обмена трафиком DE-CIX объявил о запуске первой в мире специализированной платформы, призванной обеспечить высокоскоростное и надёжное взаимодействие между агентами, сетями и приложениями на базе ИИ. Инфраструктура сформирована в рамках первой фазы проекта AI Internet Exchange (AI-IX). К платформе уже подключены более 50 сетей, ориентированных на задачи ИИ. Это, в частности, провайдеры инференс-услуг и GPUaaS, а также поставщики облачных сервисов.

AI-IX, как утверждается, обеспечивает отказоустойчивое и высокозащищённое соединение с низкими задержками, специально предназначенное для сценариев использования ИИ в режиме реального времени. Это могут быть мультимодальные агенты, робототехнические устройства, системы автономного вождения и пр. Платформа использует проприетарную масштабируемую систему маршрутизации.

Вторая фаза проекта AI-IX предполагает поддержку Ultra Ethernet для формирования географически распределённой среды обучения ИИ. Задачей консорциума Ultra Ethernet, созданного в июле 2023 года, является разработка ИИ/HPC-интерконнекта на базе Ethernet. DE-CIX отмечает, что с появлением Ultra Ethernet меняется подход к проектированию инфраструктуры для ресурсоёмких вычислений. Становится возможным объединение географически распределённых узлов, что предоставляет компаниям новые возможности в плане создания отказоустойчивой и более экономичной частной инфраструктуры ИИ.

 Источник изображения: DE-CIX

Источник изображения: DE-CIX

В целом, как подчёркивает DE-CIX, пиринговые сети ИИ предлагают ряд преимуществ как для задач инференса, так и для обучения моделей. Среди них — снижение затрат, повышение безопасности, увеличение производительности и повышение гибкости.

Постоянный URL: http://servernews.ru/1128846
08.09.2025 [08:47], Руслан Авдеев

Из грязи в князи: Fluidstack, в штате которой было всего 10 человек, получила многомиллиардный контракт на создание «атомного» ИИ-облака во Франции

Не самый известный британский стартап Fluidstack в феврале этого года подписал соглашение с французскими властями о создании в стране ИИ-кластера на 1 ГВт, запитанного от французских АЭС. Fluidstack, в которой в 2024 году работало всего 10 штатных сотрудников, стала неожиданным для экспертов исполнителем проекта по созданию «атомного» ИИ ЦОД за $11,6 млрд для 500 тыс. ускорителей, сообщает Forbes. В июне Fluidstack заявила, что общий бюджет проекта французских ЦОД может превысить $46 млрд.

Сделка — лишь часть пакета инвестиций в ИИ-инфраструктуру на $113 млрд, которые Макрон анонсировал в феврале. Многомиллиардные обязательства в соответствующей сфере взяли на себя канадский пенсионный фонд Brookfield, французский государственный инвестиционный банк BPIFrance и ИИ-фонд MGX из ОАЭ.

Основанная в 2017 году Fluidstack потратила годы на освоения рынка ИИ. Сначала стартап буквально сводил вместе обладателей простаивающих ускорителей и клиентов с небольшими бюджетами. В 2022 году выручка компании составила $1,8 млн, тогда же был запущен ChatGPT. В 2023 году она выросла до $30 млн, а в 2024-м — до 66,2 млн. Правда, за тот же период финансовые показатели изменились с $1,72 млн прибыли до убытков в размере $735 тыс. В 2024 году около половины выручки пришлось на сделки с компаниями из США. Сообщалось о сделках с Meta, европейскими Mistral, Black Forest Labs и Poolside.

 Источник изображения: Razvan Chisu/unspalsh.com

Источник изображения: Razvan Chisu/unspalsh.com

После объявления о сделке с французским правительством компания создала подразделения для операций во Франции, Исландии, Норвегии, Аргентине и США. Fluidstack позиционируется как европейский конкурент американским «неооблакам» вроде CoreWeave или Lambda и традиционным облачным гигантам, включая Google, AWS, Microsoft и Oracle.

Стартап всё ещё арендует помещения и ускорители у других компаний. В прошлом месяце заключена сделка с майнером TeraWulf на $3,2 млрд, связанная с арендой 360-МВт ИИ ЦОД в штате Нью-Йорк. Сделку поддержала Google, взявшая на себя обязательство финансово подстраховать Fluidstack и нарастившая долю в Terawulf. Уникальность сделки ещё и в том, что Google, по-видимому, впервые предложила развернуть фирменные ИИ-ускорители TPU не в собственном облаке.

Для Fluidstack, публично сообщавшей о привлечении лишь $4,5 млн, это огромная сделка. Годовая отчётность показала, что стартап привлёк в ходе ранее не разглашавшегося раунда SAFE $24,7 млн, а также займы на $37,5 млн в 2024 году. Имена инвесторов и кредиторов не разглашаются. Также сообщалось, что компания ведёт переговоры о привлечении до $200 млн. Впрочем, сумма всё равно невелика в сравнении со средствами, которые привлекли другие игроки вроде CoreWeave, Nebius или Crusoe.

 Источник изображения: Guille Álvarez/unsplash.com

Источник изображения: Guille Álvarez/unsplash.com

Для финансирования Fluidstack, похоже, обратилась не к венчурным капиталистам. В апреле она заключила соглашение с австралийским инвестиционным банком Macquarie и другими кредиторами, в рамках которой может получить до $10 млрд под залог ускорителей. CoreWeave первой прибегла к схеме финансирования, при которой ИИ-ускорители используются в качестве обеспечения по кредитам и могут быть изъяты кредитором, и получила суммарно около $8,1 млрд.

CoreWeave стала своеобразным индикатором для всего сектора. В июне капитализация компании взлетела до $88 млрд, но сейчас её акции упали. Также усилились опасения инвесторов из-за покупки Core Scientific за $9 млрд, растущих убытков, непогашенной задолженности в размере $7,5 млрд и грядущих расходов на оборудование. Кроме того, более ¾ выручки компании принесли всего два клиента: Microsoft (в интересах OpenAI) и NVIDIA.

Банк UBS рассчитал, что в 2025 году компании по всему миру потратят на ИИ-инфраструктуру $375 млрд. В начале сентября сообщалось, что Goldman Sachs допускает крах «пузыря» ИИ на фоне бума в сфере ЦОД. Исследование компании свидетельствует, что к 2027 году мощность ЦОД вырастет на 50 % благодаря спросу на ИИ, а энергопотребление сектора удвоится уже к 2030 году. При этом эксперты отмечают, что массовое внедрение ИИ может не оправдать ожиданий инвесторов.

Постоянный URL: http://servernews.ru/1128771
07.09.2025 [13:29], Руслан Авдеев

OpenAI намерена потратить $115 млрд к 2029 году

OpenAI значительно увеличила прогноз затрат до 2029 года. Поскольку компания наращивает расходы на поддержку ИИ-проектов, общая сумма в этот период составит до $115 млрд, сообщает Reuters со ссылкой на данные The Information. Согласно новым данным, ожидаемые расходы увеличатся на $80 млрд.

Согласно отчёту компании, OpenAI, ставшая одним из ключевых арендаторов ИИ-серверов в мире, рассчитывает потратить в текущем году более $8 млрд — приблизительно на $1,5 млрд больше, чем ожидалось ранее. В самой компании не отреагировали на вопросы журналистов. По данным The Information, в следующем году расходы вырастут до более чем $17 млрд, на $10 млрд выше, чем OpenAI рассчитывала ранее. В 2027 году будет потрачено $35 млрд, а в 2028 году — $45 млрд.

 Источник изображения: Viacheslav Bublyk/unsplash.com

Источник изображения: Viacheslav Bublyk/unsplash.com

Для того, чтобы обуздать растущие расходы, OpenAI разрабатывает собственные ИИ-чипы, а также оборудования для обеспечения работы своих решений. Ускоритель, разрабатываемый совместно с Broadcom, должен появиться в 2026 году. По словам Financial Times, OpenAI намерена использовать чип для обеспечения потребностей в вычислениях самой компании, без продажи его третьим лицам. Впрочем, Google, также создавшая ускорители TPU для собственных нужд, начала продвижение своих ускорителей на «внешнем» рынке.

OpenAI углубила свои связи с Oracle в июле 2025 года, запланированная арендная мощность ЦОД составляет 4,5 ГВт в рамках инициативы Stargate. Проект предусматривает траты до $500 млрд и создание мощностей до 10 ГВт с участием SoftBank Group. В число поставщиков вычислительных мощностей добавили и Google Cloud.

Постоянный URL: http://servernews.ru/1128850
07.09.2025 [01:30], Владимир Мироненко

NVIDIA потратит $1,5 млрд на аренду собственных ИИ-ускорителей у Lambda, в которую сама же и инвестировала

NVIDIA, являющаяся поставщиком и инвестором Lambda, стала её крупнейшим клиентом. Как сообщает ресурс The Information, компания заключила соглашения со стартапом на общую сумму $1,5 млрд, которая пойдёт на аренду серверов, оснащённых её собственными ускорителями.

По данным источников The Information, NVIDIA заключила соглашение под кодовым названием Project Comet об аренде 10 тыс. ускорителей NVIDIA сроком на четыре года на сумму около $1,3 млрд, а также отдельную сделку на $200 млн на аренду еще 8 тыс. ускорителей NVIDIA (возможно, более низкого класса или более старых моделей). Похожую сделку по аренде собственных ускорителей NVIDIA ранее заключила с CoreWeave в которую до этого она же и инвестировала.

Такие сделки относятся к разряду «циклических» финансовых соглашений, используемых NVIDIA для продвижения своих чипов и оказания помощи небольшим поставщикам облачных услуг в конкуренции с традиционными гиперскейлерами. В режиме «внутреннего круговорота» ИИ-рынка NVIDIA одновременно выступает поставщиком, инвестором и заказчиком, поддерживая несколько неооблаков. По неофициальным данным, точно такая же ситуация и у AMD с TensorWave.

 Источник изображения: Lambda Labs

Источник изображения: Lambda Labs

Эти циклические соглашения подчёркивают, насколько ограниченным стало предложение мощных ускорителей. Несмотря на то, что NVIDIA доминирует в разработке и производстве чипов, она предпочитает сотрудничать с более мелкими игроками, такими как Lambda и CoreWeave, чтобы обеспечить себе доступ к готовой ИИ-инфраструктуре. Бизнес-модель Lambda такая же, как у CoreWeave. Она включает в себя аренду площадей в ЦОД, развёртывание серверов, оснащённых ускорителями NVIDIA, с последующим предоставлением мощностей в аренду.

Что примечательно, NVIDIA, подобно Amazon и Microsoft, будет использовать арендуемые у Lambda серверы для собственных исследований. Контракты с Amazon и Microsoft принесли Lambda во II квартале почти $114 млн дохода. Как сообщает futunn.com, Lambda ожидает, что её выручка от облачных технологий превысит $1 млрд к 2026 году и $20 млрд к 2030 году и надеется на контракты с крупными разработчиками в сфере ИИ, такими как OpenAI, Google, Anthropic и xAI.

Lambda также ожидает, что к 2030 году её мощности достигнут почти 3 ГВт, тогда как во II квартале она составляла всего 47 МВт. К этому моменту компания рассчитывает получить в своё распоряжение 1 млн ускорителей NVIDIA. Сейчас Lambda готовится к выходу на биржу, что упростит расширение деятельность за счёт заёмного финансирования. С Lambda связана и ещё одна необычная сделка — в прошлом году Supermicro, которая является одним из ключевых поставщиков Lambda, впервые арендовала дата-центр и тут же сдала его в субаренду Lambda.

По словам экспертов, NVIDIA высоко оценивает сотрудничество с Lambda из-за нескольких факторов, один из которых заключается в том, что Lambda привлекает всё больше клиентов к переходу на её ускорители. Например, недавно Lambda подписала годовое соглашение со стартапом Midjourney, которое позволило ему перейти от ИИ-чипов Google TPU к ускорителям NVIDIA Blackwell. При этом Google, по слухам, тоже предлагает неооблаками свои фирменные ускорители.

Постоянный URL: http://servernews.ru/1128840
06.09.2025 [14:47], Владимир Мироненко

Broadcom получила нового клиента с заказом на $10 млрд — акции взлетели на 15 %

Компания Broadcom сообщила результаты III квартала 2025 финансового года, завершившегося 3 августа. Основные показатели компании за квартал превысили прогнозы Уолл-стрит благодаря сохраняющемуся высокому спросу на ИИ-решения.

Хок Тан (Hock Tan, на фото ниже), президент и гендиректор Broadcom, которому, согласно поданным в марте в регулирующие органы документам, в этом году исполнилось 73 года, заявил, что намерен возглавлять компанию как минимум ещё пять лет. Как сообщает Reuters, эта новость была позитивно воспринята инвесторами. Ещё больше восторга вызвало заявление Тана о том, что компания получила заказ от нового клиента на разработку и поставку кастомного ИИ-чипа на сумму более $10 млрд, после чего акции компании взлетели в пятницу на 15 %, пишет CNBC.

По мнению аналитиков, речь идёт об OpenAI. Это подтвердил со ссылкой на информированные источники ресурс The Financial Times, сообщивший, что новый чип, созданный в результате партнёрства двух компаний, выйдет в 2026 году.

 Источник изображений: Broadcom

Источник изображений: Broadcom

Ранее в этом году Тан намекал, что у компании в дополнение к трём существующим крупным клиентам есть ещё четыре крупных потенциальных клиента, проявляющих интерес к разработке кастомных ИИ-решений. Хотя Broadcom не раскрывает названия своих крупных клиентов в сфере ИИ-технологий, ещё в прошлом году аналитики утверждали, что это Google, Meta и ByteDance (TikTok).

«Один из этих потенциальных клиентов разместил заказ на производство в Broadcom, и мы охарактеризовали его как квалифицированного клиента для XPU», — сообщил, по данным ресурса SiliconANGLE, Тан. Он добавил, что этот заказ стал основанием для повышения прогноза Broadcom по выручке от ИИ-решений в следующем году, когда начнутся поставки.

Выручка Broadcom в III финансовом квартале составила $15,95 млрд, превысив на 22 % результат аналогичного квартала годом ранее и консенсус-прогноз аналитиков, опрошенных LSEG, в размере $15,83 млрд. Скорректированная прибыль (Non-GAAP) на акцию равняется $1,69, что выше целевого показателя Уолл-стрит в $1,65 на акцию. Чистая прибыль (GAAP) составила $4,14 млрд или $0,85 на акцию, тогда как годом ранее у компании были убытки в $1,88 млрд или $0,40 на акцию, вызванные единовременным налоговым возмещением в размере $4,5 млрд, связанным с передачей интеллектуальной собственности в США.

Скорректированный показатель EBITDA увеличился на 30 % до $10,70 млрд с $8,22 млрд в прошлом году, составив 67 % выручки. «Свободный денежный поток составил рекордные $7,0 млрд, увеличившись на 47 % по сравнению с аналогичным периодом прошлого года», — отметила в пресс-релизе Кирстен Спирс (Kirsten Spears), финансовый директор Broadcom.

Тан сообщил, что выручка от ИИ-продуктов выросла год к году на 63 % до $5,2 млрд, добавив, что в IV финансовом квартале компания ожидает получить выручку по этому направлению в размере $6,2 млрд, «что обеспечит одиннадцать кварталов роста подряд,». Вместе с тем Тан отметил слабость в сегменте полупроводников, не связанных с ИИ: продажи корпоративных решений в области сетей и хранилищ последовательно снизились. Объём продаж группы полупроводниковых решений Semiconductor Solutions составил $9,17 млрд (+26 % г/г), а выручка от инфраструктурного ПО выросла до $6,79 млрд (+17 % г/г) благодаря VMware.

В IV финансовом квартале Broadcom ожидает получить выручку в размере $17,4 млрд, что выше прогноза Уолл-стрит в $17,02 млрд. Как сообщает ресурс Converge! Network Digest, Broadcom также ожидает, что рост выручки от ИИ-чипов на уровне около 60 % в годовом исчислении в текущем финансовом году сохранится и в 2026 финансовом году благодаря росту потребности в рабочих нагрузках обучения и инференса. Компания также подтвердила свои предыдущие прогнозы по развёртыванию многомиллионных ИИ-кластеров тремя основными клиентами в 2027 году.

Постоянный URL: http://servernews.ru/1128803
06.09.2025 [13:42], Сергей Карасёв

Состоялся официальный запуск первого в Европе экзафлопсного суперкомпьютера JUPITER

В Юлихском исследовательском центре (FZJ) в Германии официально введён в эксплуатацию суперкомпьютер JUPITER (Joint Undertaking Pioneer for Innovative and Transformative Exascale Research) — первый в Европе вычислительный комплекс экзафлопсного класса. Система будет использоваться в том числе для исследований в области климата, нейробиологии и квантового моделирования.

Контракт на создание JUPITER подписан между Европейским совместным предприятием по развитию высокопроизводительных вычислений (EuroHPC JU) и консорциумом, в который входят Eviden (Atos) и ParTec. Суперкомпьютер состоит из блока Booster для решения ресурсоёмких задач и универсального блока cCuster.

В основу Booster положена платформа BullSequana XH3000 с прямым жидкостным охлаждением. Используются около 6000 вычислительных узлов с гибридными ускорителями NVIDIA Quad GH200 и интерконнектом InfiniBand NDR200 (4×200G на узел, DragonFly+). В общей сложности задействованы почти 24 тыс. суперчипов NVIDIA GH200 (Grace Hopper). В июньском рейтинге TOP500 блок JUPITER Booster располагался на четвёртом месте: на тот момент его FP64-производительность составляла 793,4 Пфлопс. Теперь показатель преодолел рубеж в 1 Эфлопс. При этом ИИ-производительность, как ожидается, будет находиться на уровне 90 Эфлопс.

 Источник изображений: Forschungszentrum Jülich / Sascha Kreklau

Источник изображений: Forschungszentrum Jülich / Sascha Kreklau

«С запуском первого в Европе эксафлопсного суперкомпьютера мы открываем новую главу в развитии науки, искусственного интеллекта и инноваций. JUPITER укрепляет цифровой суверенитет Европы и ускоряет научные исследования», — отмечает Екатерина Захариева (Ekaterina Zaharieva), еврокомиссар по стартапам, исследованиям и инновациям.

JUPITER планируется использовать для прогнозирования погоды и моделирования изменений климата, работы с европейскими большими языковыми моделями (LLM) и генеративным ИИ, разработки лекарственных препаратов и картирования человеческого мозга, моделирования молекулярной динамики и пр. Ожидается, что JUPITER сможет побить мировой рекорд по скорости обработки кубитов в квантовых вычислениях.

Между тем продолжается создание блока cCuster. В его состав войдут энергоэффективные высокопроизводительные Arm-процессоры SiPearl Rhea1. Эти чипы содержат 80 ядер Neoverse V1 (Zeus), 64 Гбайт HBM2e и четыре интерфейса DDR5. Модуль cCuster будет оснащён двумя такими процессорами на каждый вычислительный узел, 512 Гбайт DDR5 (в отдельных узлах 1 Тбайт) и одним NDR200-подключением. Общее количество узлов составит около 1300. Ожидаемая FP64-производительность — 5 Пфлопс.

Хранилище суперкомпьютера включает быструю СХД ExaFLASH и ёмкую ExaSTORE. ExaFLASH включает 20 All-Flash СХД IBM Storage Scale 6000: 21 Пбайт («сырая» 29 Пбайт), запись до 2 Тбайт/с, чтение до 3 Тбайт/с. В ExaSTORE под хранение будет выделена «сырая» ёмкость 300 Пбайт, а для резервного копирования и архивов будет использоваться ленточная библиотека ёмкостью 700 Пбайт.

 Узел Booster

Узел Booster

По оценкам, суммарные расходы на JUPITER и его эксплуатацию в течение шести лет достигнут примерно €500 млн. Половину от этой суммы предоставит EuroHPC, а остальную часть покроют Федеральное министерство образования и научных исследований Германии (BMBF) и Министерство культуры и науки земли Северный Рейн-Вестфалия (MKW NRW). Машина размещена в модульном ЦОД, что упростит дальнейшую модернизацию.

Нужно отметить, что на сегодняшний день только три суперкомпьютера в мире официально преодолели планку в 1 Эфлопс. Это машины El Capitan, Frontier и Aurora: все они установлены в лабораториях Министерства энергетики США (DoE). Впрочем, Китай о своих HPC-комплексах публично практически не говорит уже несколько лет, так что реальный список экзафлопсных систем гораздо больше.

Постоянный URL: http://servernews.ru/1128810

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus