Материалы по тегу: ии

01.04.2025 [14:53], Владимир Мироненко

Arm намерена занять 50 % рынка чипов для ЦОД к концу 2025 года — NVIDIA ей в этом поможет

Согласно прогнозу Arm Holdings, к концу 2025 года доля процессоров с Arm-архитектурой на мировом рынке центральных процессоров для ЦОД вырастет до 50 % с 15 % в 2024 году. В интервью агентству Reuters Мохамед Авад (Mohamed Awad), руководитель подразделения инфраструктурных решений Arm, отметил, что благодаря более низкому энергопотреблению, чем у процессоров Intel и AMD, Arm-чипы становятся все более популярными среди компаний, занимающихся облачными вычислениями.

Журналист ресурса The Register обратился в Arm Holdings с просьбой пояснить, благодаря чему компания рассчитывает добиться столь стремительного роста доли на рынке. Как сообщили в британской компании, принадлежащей японскому конгломерату Softbank, её прогноз в значительной степени основан на росте поставок ИИ-серверов.

 Источник изображения: Arm Holdings

Источник изображения: Arm Holdings

Мохамед Авад сообщил The Register, что в течение следующих нескольких лет, как ожидает компания, продажи ИИ-серверов вырастут на 300 %. «Для этого увеличения энергоэффективность больше не является конкурентным преимуществом — это базовое отраслевое требование. Именно здесь вычислительная платформа Arm Neoverse является явным лидером и вычислительной платформой выбора для ведущих партнёров отрасли, включая AWS, Google, Microsoft и NVIDIA», — заявил он.

Как утверждает Arm Holdings, Arm-архитектура всё чаще используется гиперскейлерами AWS, Google, Microsoft в своих чипах. По оценкам Bernstein Research, в 2023 году почти 10 % серверов по всему миру содержат Arm-процессоры приложений в качестве «основных мозгов», и половина из них была развёрнута Amazon, сообщившей, что у нее в облаке используется более 2 млн чипов Graviton собственной разработки. В свою очередь, Google объявила в 2024 году о выпуске собственного процессора Axion с дизайном Neoverse V2 для своих ЦОД, а Microsoft сообщила в конце прошлого года об общедоступности в облаке Azure инстансов с использованием процессоров собственной разработки Cobalt 100.

Расширение использования этими провайдерами облачных услуг Arm-процессоров может объяснить часть роста, который Авад прогнозирует на этот год, но продукты NVIDIA также, вероятно, составят значительную долю, полагает The Register. Например, система DGX GB200 NVL72 включает 36 ЦП NVIDIA Grace и 72 ускорителя Blackwell B200, что составляет 2592 ядра Arm Neoverse V2 в каждом установленном блоке, и они, вероятно, будут востребованы в этом году, отметил ресурс.

Также не следует забывать о других решениях для ЦОД, которые имеют ядра на базе Arm-архитектуры, такие как SmartNIC и DPU — BlueField-3 от NVIDIA, а также карты Nitro Card в серверах AWS.

Постоянный URL: http://servernews.ru/1120616
01.04.2025 [14:07], Руслан Авдеев

Microsoft вновь заявила о намерении сотрудничать с OpenAI несмотря на план по замедлению экспансии ЦОД

Microsoft отрицает слухи о том, что её решение отказаться от проектов ЦОД минимум на 2 ГВт и/или отложить их реализацию может означать сокращение сотрудничества с OpenAI. Компания объяснила своё решение совсем иными причинами, сообщает Computer Weekly.

Ранее об отказе Microsoft от проектов новых ЦОД объявили в своём докладе аналитики TD Cowen. Указывалось, что речь идёт о проектах в США и Европе. Причиной изменений было названо решение Microsoft не поддерживать растущие нагрузки OpenAI по обучению новых ИИ-моделей.

В TD Cowen заявляли, что отношения двух компаний постепенно сворачиваются — после того, как в январе 2025 года Microsoft подтвердила отказ от эксклюзивного обеспечения облачного хостинга OpenAI. В блоге Microsoft сообщалось, что OpenAI сохранила приверженность к реализации крупного проекта на базе Azure, но при этом подчёркивалось, что «эксклюзивность» более не предусмотрена — у Microsoft просто сохранится «право первого отказа» при выборе облака ИИ-стартапом.

Это означает, что Microsoft сможет первой решать, отказываться ли ей от нагрузок OpenAI. При этом последняя сохраняет право реализовать альтернативные проекты, если Microsoft не сможет удовлетворить запросы компании.

Теперь Microsoft выступила с заявлением, подтверждающим прочность связей с OpenAI и опровергающим гипотезы TD Cowen. Что касается решения компании сократить экспансию на рынке ЦОД, Microsoft заявила, что имеет «хорошие возможности» для удовлетворения текущего и растущего пользовательского спроса на свои сервисы благодаря «значительным инвестициям», уже сделанным в инфраструктуру на данный момент.

 Источник изображения: Jose Vazquez/unsplash.com

Источник изображения: Jose Vazquez/unsplash.com

В компании подчёркивают, что только в прошлом году она добавила своим ЦОД больше ёмкости, чем в любой предыдущий год в своей истории. Хотя некоторые оптимизации возможны в отдельных сферах, Microsoft продолжит «сильный рост во всех регионах».

В частности, это позволит инвестировать и распределять ресурсы в зоны роста во имя будущего компании. В её планах — потратить более $80 млрд на инфраструктуру в текущем финансовом году, поскольку компания продолжает расти рекордными темпами для удовлетворения спроса на свои сервисы.

Microsoft выступает партнёром с OpenAI с 2019 года, ранее компании заявляли, что работают над общей целью «ответственного развития ИИ-исследований», в то же время обеспечивая демократизацию соответствующих технологий, чтобы все могли ими воспользоваться.

Приблизительно в то же время Microsoft опубликовала детали будущего пересмотренного сотрудничества с OpenAI, последняя сообщила о намерении потратить $500 млрд в рамках проекта Stargate. Softbank, Oracle, MGX и OpenAI — инвесторы-акционеры инициативы, а Microsoft названа «технологическим партнёром».

Говоря о сотрудничестве с OpenAI, представитель Microsoft заявляет, что компании останутся хорошими партнёрами и сохраняют приверженность к «продвижению ИИ-фронтира вперёд», делая передовые ИИ-модели доступными для клиентов и партнёров.

Тем временем OpenAI становится всё более могущественной структурой. В ходе последнего раунда финансирования компания привлекла рекордные для отрасли $40 млрд и, возможно до конца года выйдет на IPO для привлечения новых денег.

Постоянный URL: http://servernews.ru/1120595
01.04.2025 [10:45], Руслан Авдеев

OpenAI привлекла рекордные $40 млрд — капитализация достигла $300 млрд

OpenAI завершила один из крупнейших за всю историю раундов финансирования для частного бизнеса. Компания привлекла $40 млрд, а её капитализация после этого достигла $300 млрд, сообщает Silicon Angle. Раунд финансирования возглавила SoftBank Group, а участие в нём приняли компании, уже поддерживающие OpenAI, включая Microsoft, Coatue Management, Thrive Capital и Altimeter Capital.

Капитализация в $300 млрд обеспечила OpenAI позицию второй по стоимости частной технологической компании наряду с китайской ByteDance. По данным CB Insights, обе компании уступают только SpaceX Илона Маска (Elon Musk), которая оценивается в $350 млрд.

В своём блоге OpenAI объявила, что новые средства помогут ей продолжить создание ИИ-систем, способствующих научным открытиям, обеспечивающих персонализированное обучение, расширяющих творческие возможности людей и прокладывающих путь к созданию «общего искусственного интеллекта» (AGI) на благо всего человечества. Предполагается, что AGI-системы будут превосходить человека в интеллектуальном плане, а их разработка является главной целью всех ведущих игроков индустрии искусственного интеллекта.

Компания намерена направить полученные средства на создание необходимой вычислительной инфраструктуры для поддержки ИИ-систем. По некоторым данным, $18 млрд будут выделены на инициативу Stargate — совместный проект по развитию искусственного интеллекта, в котором, помимо OpenAI, участвуют SoftBank, Oracle и MGX Fund Management. В целом планируется инвестировать в этот проект до $500 млрд в ближайшие годы.

 Источник изображения: Marga Santoso/unsplash.com

Источник изображения: Marga Santoso/unsplash.com

Этот раунд финансирования стал беспрецедентным даже по меркам технологического сектора. В 2018 году Ant Group, аффилированная с китайской Alibaba Group Holding, привлекла рекордные $14 млрд. В том же году компания Juul Labs, выпускающая электронные сигареты, получила $12,8 млрд, а китайская каршеринговая компания DiDi Global привлекла $10,8 млрд в 2019 году. Среди других «рекордсменов» последних лет — Databricks ($10 млрд в декабре 2024 года), в 2023 году сама OpenAI тоже привлекла $10 млрд.

По данным CNBC, сначала OpenAI получит только $10 млрд, а оставшиеся средства будут перечислены после переформатирования компании в коммерческое предприятие к концу текущего года. Если этот процесс не удастся, финансирование могут сократить на $10 млрд — до $30 млрд.

Другими словами, для OpenAI крайне важно сменить свой статус. Компания начинала как некоммерческая исследовательская лаборатория, а в прошлом году взяла курс на преобразование в коммерческую структуру. Для этого, как минимум, потребуется одобрение генерального прокурора Калифорнии. Кроме того, Илон Маск, один из основателей OpenAI, подал в суд, пытаясь остановить смену статуса компании.

 Источник изображения: Giorgio Trovato/unsplash.com

Источник изображения: Giorgio Trovato/unsplash.com

Сегодня OpenAI представляет собой гибридную структуру, в которой исходная некоммерческая организация владеет и управляет дочерней компанией с ограниченной прибылью (capped-profit LLC). Планируется, что эта коммерческая часть будет выделена в независимую компанию. Инвесторы OpenAI, ранее получавшие конвертируемые облигации (convertible notes), смогут обменять их на доли в новой коммерческой структуре.

Инвесторы рассчитывают, что OpenAI сумеет сохранить лидирующие позиции в индустрии ИИ, которая, по прогнозам Bloomberg Intelligence, к 2032 году вырастет до более чем $1,3 трлн. Однако компания сталкивается с жёсткой конкуренцией со стороны Google LLC, Microsoft, Amazon Web Services (AWS), Anthropic PBC и Perplexity AI, а также китайских разработчиков.

Если OpenAI потребуется дополнительное финансирование в будущем, вероятно, компания выйдет на IPO, хотя сроки пока остаются неизвестными.

Недавно CoreWeave стала первой специализированной ИИ-компанией, вышедшей на IPO, однако её деятельность сосредоточена в первую очередь на аппаратной инфраструктуре. Впрочем, её акции демонстрируют нестабильные результаты — в минувший понедельник их стоимость упала более чем на 7 %.

Постоянный URL: http://servernews.ru/1120589
31.03.2025 [14:20], Сергей Карасёв

«Яндекс» выпустил открытую ИИ-модель YandexGPT 5 Lite: её можно запускать на обычной рабочей станции

Компания «Яндекс» сообщила о появлении в открытом доступе Instruct-версии ИИ-модели YandexGPT 5 Lite: применять её можно в некоммерческих и в коммерческих целях. Благодаря сравнительно низким требованиям к оборудованию опробовать модель можно на обычном компьютере без специального оборудования.

Модель подверглась стандартному обучению на больших объёмах данных, а также прошла дополнительный этап настройки — так называемое выравнивание (alignment). Это позволяет ей решать конкретные задачи по запросам или инструкциям. Для сравнения: другую открытую версию YandexGPT 5 Lite — Pretrain — пользователям нужно дообучать под свои потребности.

Instruct-модификация YandexGPT 5 Lite насчитывает 8 млрд параметров и поддерживает контекст до 32 тыс. токенов. Говорится о совместимости с библиотекой llama.cpp и поддержке GGUF-формата (GPT-Generated Unified Format). По результатам международных тестов и их адаптаций для русского языка (MMLU, IFEval, RuFacts и других) модель соперничает с китайской Qwen2.5-7B-Instruct, превосходя её в таких сценариях, как задачи классификации и разметки текстов, знание русской культуры и фактов, умение отвечать в заданном формате. Более того, YandexGPT 5 Lite Instruct сравнима по качеству ответов с GPT-4o Mini в решении стандартных задач сервисов «Яндекса».

 Источник изображения: «Яндекс»

Источник изображения: «Яндекс»

Благодаря обновлённой лицензии YandexGPT 5 Lite применять модель можно в коммерческих проектах, если объём выходных токенов не превышает 10 млн в месяц. Утверждается, что этого достаточно для создания и поддержки чат-ботов на небольших и средних сайтах, для генерации описаний товаров в интернет-магазинах с ограниченным ассортиментом, для автоматизации ответов клиентам в сервисных центрах или для анализа отзывов пользователей на площадках с умеренным трафиком.

Модель YandexGPT 5 Lite Instruct доступна бесплатно исследователям и разработчикам на Hugging Face. Бизнес-пользователям доступ предоставляется через API в Yandex Cloud: при этом можно дообучить модель для конкретных задач. Причём API стал совместим с OpenAI API: теперь модели «Яндекса» можно использовать с библиотеками OpenAI на Python, JavaScript и других языках программирования. Упрощена интеграция с популярными решениями для работы с технологиями машинного обучения: например, с платформой для запуска ИИ-ассистентов AutoGPT и с инструментом для создания приложений на базе нейросетей LangChain. Пользователи могут протестировать модель в чате с «Алисой».

Постоянный URL: http://servernews.ru/1120553
31.03.2025 [14:20], Сергей Карасёв

На заводе «ЦТС» в Калининградской области начали выпускать серверные платы

На предприятии АО «НПО «Цифровые Телевизионные Системы» («ЦТС»; входит в холдинг GS Group) в Калининградской области начато производство средних серверных плат с размерами 480 × 430 мм. Как отмечает генеральный директор предприятия, это изделия повышенной сложности, насчитывающие более 5 тыс. компонентов. Заказчиком выступает холдинг Fplus — российский поставщик электроники и оборудования для построения IT-инфраструктуры.

Для организации выпуска плат была выполнена перекомпоновка оборудования на производственных линиях в рамках масштабной программы модернизации, в которую инвестировано 182 млн руб. Дело в том, что изготовление изделий указанного размера сопряжено с рядом сложностей. В частности, при нагревании такие печатные платы прогибаются под собственной массой. Кроме того, цикл сборки должен занимать не более трёх суток — в противном случае возникает риск чрезмерного окисления контактных площадок, что приводит к дефектам пайки.

 Источник изображения: «ЦТС»

Источник изображения: «ЦТС»

С целью решения указанных проблем на заводе «ЦТС» внедрено новейшее оборудование. Например, чтобы избежать искривления поверхности плат при нагревании, на предприятии разработаны специальные паяльные рамки. За один цикл возможно производить установку всех необходимых компонентов, что сокращает сроки изготовления продукции. В целом, мощности завода позволяют производить до 9 тыс. средних серверных плат ежемесячно.

«Рассчитываем, что услуга по сборке средних серверных плат позволит нам укрепить позиции на рынке контрактного производства и расширить пул заказчиков», — говорит глава «ЦТС».

Постоянный URL: http://servernews.ru/1120559
31.03.2025 [10:49], Руслан Авдеев

Новые нормы энергоэффективности ИИ-ускорителей угрожают бизнесу NVIDIA в Китае

Пекин представил новые нормы энергоэффективности для ИИ-ускорителей. Весьма вероятно, что они помешают китайским компаниям приобретать наиболее востребованные в Китае ускорители NVIDIA, если регуляторы всерьёз возьмутся за контроль их исполнения, сообщает The Financial Times.

Национальная комиссия по развитию и реформам (NDRC) настоятельно рекомендует местным игрокам рынка ЦОД использовать ускорители, соответствующие требованиям к энергоэффективности, при строительстве новых дата-центров и расширении уже существующих объектов.

Популярный в Китае ИИ-ускоритель NVIDIA H20 менее производителен, чем флагманские модели компании, но его можно официально поставлять в страну. Однако, по данным издания, на сегодняшний день H20 не соответствует новым требованиям комиссии. По информации источников, в последние несколько месяцев китайский регулятор без лишнего шума «отговаривает» местные IT-гиганты, такие как Alibaba, ByteDance и Tencent, от использования H20. Впрочем, пока правила применяются не слишком жёстко, и эти ускорители NVIDIA по-прежнему востребованы на китайском рынке.

Последствия для бизнеса NVIDIA могут оказаться серьёзнее, если комиссия решит ужесточить запрет — это поставит под угрозу многомиллиардные доходы компании в Китае. Несмотря на активное строительство дата-центров, американский разработчик рискует потерять заказы, а его место займёт Huawei, чьи продукты лучше соответствуют новым «зелёным» требованиям. В настоящее время NVIDIA ищет способы повысить энергоэффективность своих решений и стремится провести переговоры с руководством NDRC для обсуждения сложившейся ситуации. Однако это приведёт к снижению производительности H20 и, соответственно, конкурентоспособности на китайском рынке.

 Источник изображения: Henry Chen/unsplash.com

Источник изображения: Henry Chen/unsplash.com

Поскольку ограничения распространяются главным образом на новые, строящиеся ЦОД, некоторые компании обходят правила, заменяя в уже действующих дата-центрах старые ускорители на H20. В других случаях несоблюдение норм может привести к проверкам и штрафам. Хотя ограничения вступили в силу ещё в прошлом году, до недавнего времени о них не сообщалось — Китай всеми силами стремится к технологическому суверенитету в полупроводниковой сфере и активно содействует отказу местных компаний от продукции NVIDIA. Прямым конкурентом H20 считается Huawei Ascend 910B, на подходе и вариант 910C.

NRDC недвусмысленно намекает на будущее отношений Пекина и NVIDIA. После ужесточения экспортных ограничений США в отношении Китая в октябре 2023 года компания специально разработала ослабленную экспортную версию H20. Однако на фоне триумфа китайских ИИ-моделей стартапа DeepSeek в стране разразился настоящий бум ИИ-технологий, и компании вроде Alibaba и Tencent активно закупают H20, особенно с учётом вероятного дальнейшего ужесточения американских санкций, включая возможный запрет на поставки даже ослабленных ускорителей.

Китай — четвёртый по величине рынок для NVIDIA в мире: в 2025 фискальном году выручка компании здесь составила $17,1 млрд, или 13 % от всех продаж. Помимо Huawei, конкуренцию NVIDIA на китайском рынке может составить и Intel с её ускорителями HL328 и HL388, однако они также не соответствуют новым китайским требованиям по энергоэффективности. Впрочем, их доля в китайском импорте изначально была незначительной.

Постоянный URL: http://servernews.ru/1120540
29.03.2025 [10:51], Сергей Карасёв

Комплект микроконтроллеров «MIK32 Амур» разработки «Микрон» появился на Ozon

Компания «Микрон» (входит в ГК «Элемент») сообщила о том, что в продаже на маркетплейсе Ozon появился комплект микроконтроллеров «MIK32 Амур» (К1948ВК015/018). Эти изделия предназначены для устройств промышленной автоматизации и интернета вещей (IoT), охранных систем, оборудования мониторинга и телеметрии, систем умного дома, беспроводных периферийных устройств и пр.

В комплект входят три микроконтроллера «MIK32 Амур» в корпусе QFN64 с размерами размер 8 × 8 × 1 мм и массой 2 г. Решение разработано и производится в России на предприятии группы компаний «Элемент». Микроконтроллер включён в Единый реестр российской радиоэлектронной продукции (ПП РФ 878).

Основа «MIK32 Амур» — 32-разрядное ядро RISC-V. Есть 16 Кбайт ОЗУ, 8 Кбайт ПЗУ (EEPROM) и 256 бит ОПЗУ (однократно программируемая ПЗУ). Реализованы интерфейсы SPI, I2C и UART. Упомянуты АЦП (12 бит, 8 каналов) и ЦАП (12 бит, 2 канала) с частотой дискретизации до 1 МГц, датчик температуры, часы реального времени с поддержкой полного календаря. Говорится об аппаратной поддержке криптоалгоритмов ГОСТ 34.12–2018 и AES128. Диапазон рабочих температур простирается от -40 до +85 °C.

 Источник изображения: «Микрон» / Ozon

Источник изображения: «Микрон» / Ozon

«Теперь в дополнение к отладочной плате и модулю на Ozon доступен к покупке непосредственно микроконтроллер. Мы идём навстречу пожеланиям инженеров-разработчиков прототипов устройств, которые пробуют его функционал и применимость в своих пилотных проектах на архитектуре RISC-V», — отмечает заместитель генерального директора АО «Микрон».

На маркетплейсе Ozon также доступны отладочные платы «Старт» и DIP (на изображении) на базе «MIK32 Амур» (К1948ВК018), которые можно заказать по цене 7500 и 5500 руб. соответственно. Изделия, управляемые микроконтроллером, применяются в вузовских программах для подготовки инженерных кадров и разработчиков электроники.

Постоянный URL: http://servernews.ru/1120494
29.03.2025 [10:11], Алексей Степин

Bolt Graphics анонсировала универсальную видеокарту со слотами SO-DIMM, которая может потягаться с RTX 5080

Все современные графические ускорители предлагаются с жёстко заданным при производстве объёмом видеопамяти, а в наиболее производительных моделях память типа HBM вообще интегрирована на одной с основным кристаллом подложке. Однако требования к объёму памяти в последнее время растут быстрее, а за дополнительный объём вендор просят всё больше. Кардинально иной подход предлагает компания Bolt Graphics, недавно анонсировавшая серию ускорителей Zeus.

Несмотря на «ИИ-пандемию», Bolt Graphics в своём анонсе не делает упор на искусственный интеллект, а называет Zeus первым GPU, специально созданным для целей HPC, рендеринга, трассировки лучей и даже компьютерных игр. Что интересно, в основе Zeus лежит не некая закрытая архитектура: скалярная часть нового GPU построена на базе спецификации RISC-V RVA23, векторная представлена FP64 ALU на базе несколько модифицированной RVV 1.0. Прочие функции реализованы путём кастомных расширений и отдельных блоков-ускорителей. Все они пользуются общим кешем объёмом 128 Мбайт. Дополняет картину блок телеметрии и внутренний интерконнект для общения с другими вычислительным блоками.

 Zeus 1c26-032 (Источник изображений: Bolt Graphics)

Zeus 1c26-032 (Источник изображений: Bolt Graphics)

Используется чиплетный подход. Базовый «строительный блок» Zeus 1c26-032 включает GPU-чиплет, который соединён с 32 Гбайт набортной памяти LPDDR5x (273 Гбайт/с) и контроллером внешней памяти DDR5 (90 Гбайт/с), т.е. при желании можно установить ещё 128 Гбайт RAM (два модуля SO-DIMM). В GPU-чиплет встроены контроллеры DisplayPort 2.1a и HDMI 2.1b, а с внешним миром он общается посредством IO-чиплета, с которым он соединён 256-Гбайт/с каналом. IO-чиплет предлагает необычный набор портов. Помимо сразу двух интерфейсов PCIe 5.0 x16 (64 Гбайт/с каждый) имеется выделенный порт RJ-45 для BMC и 400GbE-порт QSFP-DD. Наконец, есть аппаратный блок видеокодирования, способный справиться с двумя потоками 8K@60 AV1/H.264/H.265.

Заявленный уровень производительности в векторных FP64/FP32/FP16-вычислениях составляет 5/10/20 Тфлопс, а в матричных INT16/INT8 — 307,2/614,4 Топс. Аппаратный блок ускорения лучей (path tracing) выдаёт до 77 гигалучей. Для сравнения: NVIDIA RTX 5090 способна выдавать 32 гигалуча, а FP64-производительность составляет 1,6 Тфлопс. В то же время в расчётах пониженной точности актуальные решения NVIDIA всё равно быстрее Zeus 1c26-032. Однако у новинки есть важное преимущество — её уровень TDP составляет всего 120 Вт. Второй интерфейс PCIe 5.0 x16 можно использовать для прямого объединения двух карт.

Вариант ускорителя с двумя чиплетами носит название Zeus 2c26-064/128, а с четырьмя — 4c26-256. Последние числа обозначают объём распаянной памяти LPDDR5X. Что касается расширяемой памяти, то количество доступных разъёмов SO-DIMM также зависит от модели и составляет до восьми, так что во флагманской конфигурации базовые 256 Гбайт LPDDR5x можно дополнить аж 2 Тбайт DDR5. Производительность с увеличением количеств GPU-чиплетов растёт практически пропорционально, но есть некоторые другие нюансы. Так, в Zeus 2c26-064 и Zeus 2c26-128 (оба варианта имеют TDP 250 Вт) есть только один IO-чиплет, а GPU-чиплеты объединены шиной со скоростью 768-Гбайт.

Zeus 4c26-256 имеет сразу четыре I/O чиплета в составе, которые дают восемь контроллеров PCIe 5.0 x4 (один чиплет, совокупно 32 линии) и шесть 800GbE-портов OSFP (три чиплета). Между собой GPU-чиплеты объединены шиной со скоростью 512-Гбайт/с. Каждый из них соединён с собственным IO-чиплетом на скорости 256 Гбайт/с. Теплопакет флагмана составляет 500 Ватт, ускоритель, если верить Bolt Graphnics, развивает 20 Тфлопс в режиме FP64, почти 2500 Топс на вычислениях FP8 и способен обрабатывать до 307 гигалучей.

Разработчики явно заложили в своё детище широкие возможности кластеризации, о чём свидетельствует наличие мощной сетевой подсистемы. Поддерживаются как скромные конфигурации из двух GPU, соединённых непосредственно по Ethernet 400GbE, так и масштабные системы уровня стойки, содержащей 80 плат Zeus 4c26-256, соединённых как с коммутатором, так и напрямую друг с другом. Такой кластер потребляет 44 кВт, но зато способен обеспечивать запуск крупных физических симуляций или обучение ИИ моделей за счёт огромного массива общей памяти, составляющего 160 Тбайт. Вычислительная производительность такого кластера достигает 1,6 Пфлопс в режиме FP64 и 196 Попс в режиме FP8.

Одной из особенностей новинок является трассировщик лучей Glowstick, способный работать в режиме реального времени практически во всех современных пакетах 3D-моделирования или видеоредактирования, таких как Maya, 3ds Max, Blender, SketchUp, Houdini и Nuke. Он будет дополнен фирменной библиотекой Bolt MaterialX, содержащей более 5000 текстур высокого качества. А благодаря поддержке стандарта OpenUSD он сможет легко интегрироваться в любую цепочку рендеринга и пост-обработки. Также запланирован электромагнитный симулятор Bolt Apollo. Обещаны фирменные драйверы Vulkan/DirectX и SDK с использованием LLVM.

Ранний доступ к комплектам разработчика Bolt Graphics наметила на IV квартал текущего года. В III квартале 2026 года должны появиться 2U-серверы на базе Zeus, а массовые поставки серверов и PCIe-карт начнутся не ранее IV квартала того же года. Пока сложно сказать, насколько хорошо новая архитектура себя проявит, но если верить предварительным тестам Zeus, выигрыш в сравнении с существующими ускорителями существенен, особенно в энергопотреблении.

Постоянный URL: http://servernews.ru/1120460
29.03.2025 [10:01], Сергей Карасёв

Квартальные затраты на облачную инфраструктуру выросли вдвое на фоне бума ИИ

По оценкам компании International Data Corporation (IDC), мировые затраты на облачную инфраструктуру в IV квартале 2024 года достигли $67 млрд: это на 99,3 %, т.е. практически в два раза, больше по сравнению с аналогичным периодом предыдущего года. При этом необлачный сегмент показал рост на 25,8 % — до $22 млрд.

Аналитики учитывают продажи серверов и СХД для выделенных и публичных облачных платформ. Главным драйвером отрасли является ИИ, в частности, «рассуждающие» модели и агенты ИИ. Облачные провайдеры активно закупают дорогостоящие системы с ускорителями на базе GPU, а также инвестируют средства в расширение сетей дата-центров.

Расходы на публичную облачную инфраструктуру достигли $57 млрд в IV квартале 2024 года, увеличившись на 124,4 % по сравнению с предыдущим годом. В секторе выделенных облаков отмечен рост на 21,8 % в годовом исчислении — до $10 млрд. Таким образом, на публичные платформы пришлось 64,0 % от общих затрат.

 Источник изображения: IDC

Источник изображения: IDC

В географическом разрезе расходы на облачную инфраструктуру в последней четверти 2024 года увеличились во всех регионах. В частности, максимальный рост зафиксирован в Канаде и США — плюс 151,8 % и 125,3 % в годовом исчислении соответственно. Китай, Япония, Азиатско-Тихоокеанский регион (за исключением КНР и Японии), Западная Европа, Ближний Восток / Африка, а также Латинская Америка показали прибавку в 99,6 %, 76,2 %, 48,0 %, 36,8 %, 28,1 % и 14,3 % соответственно. В Центральной и Восточной Европе отмечено увеличение на 5,6 %.

IDC прогнозирует, что в 2025 году расходы на облачную инфраструктуру поднимутся на 33,3 % по сравнению с 2024-м, составив $271,5 млрд. При этом публичные платформы покажут рост на 25,7 % в годовом исчислении — до $213,7 млрд. В сегменте выделенных облаков ожидается прибавка около 71,8 % — до $57,8 млрд. Расходы на необлачную инфраструктуру, по мнению IDC, в 2025 году снизятся на 4,9 %, составив $68,1 млрд.

Постоянный URL: http://servernews.ru/1120496
28.03.2025 [18:01], Руслан Авдеев

Crusoe привлекла $225 млн на закупку чипов NVIDIA для развития облачной ИИ-инфраструктуры

Компания Crusoe получила кредитную линию в объёме $225 млн для расширения своего облака. Раунд возглавила частная кредитная структура Upper90 Capital Management, а участвовали в сборе средств British Columbia Investment Management Corporation, FS Investments, King Street Capital Management, Liberty Mutual Investments и ORIX USA, сообщает Datacenter Dynamics.

Более всего Crusoe сегодня известна строительством дата-центров, также компания управляет облачным сервисом, доступным корпоративным клиентам, желающим арендовать ИИ-инфраструктуру. Привлечённые средства потратят на приобретение ИИ-ускорителей NVIDIA и вспомогательной инфраструктуры для расширения облаков оператора.

В компании заявляют, что новые средства будут способствовать расширению облака Crusoe Cloud, призванного упростить и ускорить разработку ИИ для каждой компании-клиента. Давнее стратегическое партнёрство с Upper90 сыграло важную роль в масштабировании технологий Crusoe для удовлетворения спроса на облака. По данным пресс-службы Crusoe, последний раунд финансирования развивает успехи компании, достигнутые после декабрьского раунда серии D на сумму $600 млн.

 Источники изображения: Alexander Grey/unsplash.com

Источники изображения: Alexander Grey/unsplash.com

В своё время компания начинала как бизнес, занимавшийся добычей криптовалют и размещала модульные ЦОД неподалёку от нефтегазовой инфраструктуры для использования в качестве топлива для генераторов попутного природного газа.

В последние годы она переключилась на работу с ИИ-инфраструктурой и строит большой ЦОД в Техасе совместно с Oracle для OpenAI, намеренной реализовать проект Stargate. Также сообщалось о совместном проекте с Chirisa и PowerHouse стоимостью $5 млрд, предусматривающем строительство ЦОД на этой территории США, в основном для CoreWeave. Наконец, совсем недавно она объявила о полном отказе от своего криптомайнингового бизнеса — оставшиеся активы проданы NYDIG.

Ранее сообщалось, что Crusoe получит доступ к 4,5 ГВт электричества, вырабатываться которое будет за счёт природного газа. Проект реализован совместно с инвесторами из Engine No.1. Предполагается использовать мощности для питания новых ИИ ЦОД, некоторые из которых, возможно, построят для Stargate.

Для Crusoe Cloud арендовано помещение ЦОД ICE02 в Исландии, партнёрское соглашение заключили и с Digital Realty. Стоит отметить, что Upper90 была одним из первых спонсоров Crusoe, кредит на оборудование компания предоставила последней ещё в 2019 году. В Upper90 подчеркнули, что Crusoe сегодня находится на переднем крае облачных ИИ-вычислений и решений в области экоустойчивой энергетики. Представители инвестора заявили, что заняты структурированием инновационного финансирования и гордятся углублением связей с Crusoe.

Постоянный URL: http://servernews.ru/1120469
Система Orphus