Материалы по тегу: ии
09.06.2025 [09:19], Сергей Карасёв
«Аквариус» анонсировала отечественные серверы AQserv на базе Intel Xeon 6«Аквариус» сообщила о разработке инженерных образов 2U-серверов AQserv с процессорами Intel Xeon 6. Устройства предназначены для решения задач в таких областях, как ИИ, машинное обучение, большие данные и пр. Полностью технические характеристики серверов пока не раскрываются. Известно, что они имеют двухсокетное исполнение с возможностью выбора чипов Xeon 6500P/6700P (Granite Rapids) с производительными Р-ядрами и Xeon 6700E (Sierra Forest) с энергоэффективными Е-ядрами. Говорится о поддержке 32 DIMM-слотов DDR5-8000/6400/5200, восьми слотов PCIe 5.0 x16, одного слота OCP 3.0 (PCIe 5.0 x16). Дисковая подсистема представлена двумя слотами для SFF-накопителей (SATA/SAS/NVMe) и двумя E1.S-слотами (NVMe) с горячей заменой. Дисковая корзина представлена в двух вариантах: 24 × SFF (SATA/SAS/NVMe) или 12 × LFF (SATA/SAS/NVMe). За управление отвечает BMC ASPEED AST2600 с выделенным 1GbE-портом RJ45, а также фирменной прошивкой «Аквариус Командир». Устройства наделены фирменной системой управления и мониторинга, которую «Аквариус» развивает с 2020 года. Она позволяет выполнять базовые операции по обслуживанию основных компонентов серверов, а также обеспечивает расширенную поддержку служб каталогов (таких как AD, LDAP, ALD Pro) и дополнительные возможности, в том числе в плане автоматизации. Благодаря этому, по заявлениям производителя, ускоряется ввод оборудования в эксплуатацию и снижается совокупная стоимость владения (TCO). ![]() Источник изображения: «Аквариус» Серверы AQserv на базе Xeon 6 оптимизированы для ресурсоёмких нагрузок, связанных с виртуализацией, облачными платформами, аналитическими приложениями и пр. «Аквариус» отмечает, что по сравнению с машинами предыдущего поколения достигается увеличение производительности в два–три раза, а в некоторых сценариях — в пять и более раз. Такие показатели обеспечиваются благодаря новой архитектуре, большому количеству ядер, поддержке инструкций AMX, использованию оперативной памяти MRDIMM и др. «Мы начали разработку серверов на базе Xeon 6 заранее, ещё до официального выпуска первых процессоров Xeon 6 компанией Intel, чтобы наши заказчики могли первыми получить доступ к решениям нового поколения. В условиях стремительно растущих требований к IT-инфраструктуре важно опережать запросы рынка, и мы уверены, что наш новый продукт позволит бизнесу решать задачи цифровой трансформации на совершенно новом уровне эффективности», — говорит президент «Аквариус». Впрочем, Selectel анонсировала собственные серверы на базе Xeon 6 ещё в октябре прошлого года.
07.06.2025 [22:49], Владимир Мироненко
От «железа» до агентов: «К2 НейроТех» представил ПАК-AI для разработки и внедрения ИИ на предприятиях«К2 НейроТех», подразделение компании «К2Тех», представило программно-аппаратный комплекс ПАК-AI, позволяющий оперативно интегрировать ИИ в действующую ИТ-среду организации в соответствии с её требованиями и политиками безопасности. ПАК-AI включает аппаратную часть, программную платформу, а также инструменты для работы с данными, ИИ-моделями, промтами, визуализациями, API-интеграцией и т. д. Первый вариант ПАК-AI построен на базе оборудования YADRO: шесть серверов, включая ИИ-сервер с восемью GPU и сетевые коммутаторы KORNFELD. Управление ПАК-AI осуществляется через портал — специализированную GUI-платформу, служащую единой точкой входа для работы с вычислительными ресурсами, для запуска моделей, настройки среды и контроля загрузки. Платформа обеспечивает управление виртуальными машинами с ускорителями для изолированных задач и контейнерами Kubernetes для обеспечения гибкости и масштабируемости. Платформа обеспечивает доступ к предустановленному ПО: ОС (Astra Linux, CentOS, РЕД ОС), ML-инструментам, моделям и средам разработки. ![]() Источник изображений: «К2 НейроТех» Клиенту доступны функции маршрутизации данных, оркестрации, мониторинга, управления файловыми системами и каталогами, резервного копирования и обеспечения безопасности. Использование ресурсов фиксируется автоматически с отображением их стоимости в разделе биллинга. Разработчикам предоставляется весь необходимый стек инструментов для администрирования моделей. Помимо доступа к востребованным средам, таким как TensorFlow, PyTorch, Keras, HuggingFace Transformers, специалисты имеют возможность разворачивать собственные окружения в виде ВМ или контейнеров, устанавливать дополнительные библиотеки, использовать кастомные образы и конфигурации. Также предоставляется возможность построения MLOps-конвейеров с использованием MLflow, Hydra, Optuna. Прикладной слой платформы представляет собой каталог готовых агентов и моделей, разработанных К2 НейроТех. Он включает решения как на базе открытых, так и вендорских моделей, в том числе YandexGPT mini, GigaChat lite, DeepSeek, Llama, Qwen и другие. Пользователи смогут их обучать на корпоративных данных, адаптировать под бизнес-процессы и применять в прикладных сценариях: от обработки документов и генерации контента до автоматизации клиентского взаимодействия, производственной аналитики и других узкоспециализированных прикладных задач. В ПАК-AI может использоваться отечественное оборудование любых вендоров и ПО, разработанное как на основе решений из реестров Минцифры и Минпромторга России, так и на открытом ПО, что позволяет менять конфигурацию с соответствии с требованиями регуляторов. ПАК-AI реализован в формате IaaS (предоставление вычислительных ресурсов), PaaS (маркетплейс приложений для ML-команд с предоставлением доступа к нужной инфраструктуре и сервисам), SaaS (доступ к предустановленным приложениям от сторонних вендоров). Также с его помощью можно организовать внутренний сервис ИИ-как-услуга (AIaaS) для предоставления LLM и агентов.
07.06.2025 [16:24], Владимир Мироненко
AMD впервые приняла участие в бенчмарке MLPerf Training, но до рекордов NVIDIA ей ещё очень далекоКонсорциум MLCommons объявил новые результаты бенчмарка MLPerf Training v5.0, отметив быстрый рост и эволюцию в области ИИ, а также рекордное количество общих заявок и увеличение заявок для большинства тестов по сравнению с бенчмарком v4.1. MLPerf Training v5.0 предложил новый бенчмарк предварительной подготовки большой языковой модели на основе Llama 3.1 405B, которая является самой большой ИИ-моделью в текущем наборе тестов обучения. Он заменил бенчмарк на основе gpt3 (gpt-3-175B), входивший в предыдущие версии MLPerf Training. Целевая группа MLPerf Training выбрала его, поскольку Llama 3.1 405B является конкурентоспособной моделью, представляющей современные LLM, включая последние обновления алгоритмов и обучение на большем количестве токенов. Llama 3.1 405B более чем в два раза больше gpt3 и использует в четыре раза большее контекстное окно. Несмотря на то, что бенчмарк на основе Llama 3.1 405B был представлен только недавно, на него уже подано больше заявок, чем на предшественника на основе gpt3 в предыдущих раундах, отметил консорциум. MLCommons сообщил, что рабочая группа MLPerf Training регулярно добавляет новые рабочие нагрузки в набор тестов, чтобы гарантировать, что он отражает тенденции отрасли. Результаты бенчмарка Training 5.0 показывают заметный рост производительности для новых бенчмарков, что указывает на то, что отрасль отдаёт приоритет новым рабочим нагрузкам обучения, а не старым. Тест Stable Diffusion показал увеличение скорости в 2,28 раза для восьмичиповых систем по сравнению с версией 4.1, вышедшей шесть месяцев назад, а тест Llama 2.0 70B LoRA увеличил скорость в 2,10 раза по сравнению с версией 4.1; оба превзошли исторические ожидания роста производительности вычислений с течением времени в соответствии с законом Мура. Более старые тесты в наборе показали более скромные улучшения производительности. На многоузловых 64-чиповых системах тест RetinaNet показал ускорение в 1,43 раза по сравнению с предыдущим раундом тестирования v3.1 (самым последним, включающим сопоставимые масштабные системы), в то время как тест Stable Diffusion показал резкое увеличение в 3,68 раза. «Это признак надёжного цикла инноваций в технологиях и совместного проектирования: ИИ использует преимущества новых систем, но системы также развиваются для поддержки высокоприоритетных сценариев», — говорит Шрия Ришаб (Shriya Rishab), сопредседатель рабочей группы MLPerf Training. В заявках на MLPerf Training 5.0 использовалось 12 уникальных чиповых, все в категории коммерчески доступных. Пять из них стали общедоступными с момента выхода последней версии набора тестов MLPerf Training:
Заявки также включали три новых семейства процессоров:
Кроме того, количество представленных многоузловых систем увеличилось более чем в 1,8 раза по сравнению с версией бенчмарка 4.1. Хиуот Касса (Hiwot Kassa), сопредседатель рабочей группы MLPerf Training, отметил растущее число провайдеров облачных услуг, предлагающих доступ к крупномасштабным системам, что делает доступ к обучению LLM более демократичным. Последние результаты MLPerf Training 5.0 от NVIDIA показывают, что её ускорители Blackwell GB200 демонстрируют рекордные результаты по времени обучения, демонстрируя, как стоечная конструкция «ИИ-фабрики» компании может быстрее, чем раньше, превращать «сырые» вычислительные мощности в развёртываемые модели, пишет ресурс HPCwire. Раунд MLPerf Training v5.0 включает 201 результат от 20 организаций-участников: AMD, ASUS, Cisco, CoreWeave, Dell, GigaComputing, Google Cloud, HPE, IBM, Krai, Lambda, Lenovo, MangoBoost, Nebius, NVIDIA, Oracle, QCT, SCITIX, Supermicro и TinyCorp. «Мы бы особенно хотели поприветствовать впервые подавших заявку на участие в MLPerf Training AMD, IBM, MangoBoost, Nebius и SCITIX, — сказал Дэвид Кантер (David Kanter), руководитель MLPerf в MLCommons. — Я также хотел бы выделить первый набор заявок Lenovo на результаты тестов энергопотребления в этом раунде — энергоэффективность в системе обучения ИИ-систем становится всё более важной проблемой, требующей точного измерения». NVIDIA представила результаты кластера на основе систем GB200 NVL72, объединивших 2496 ускорителей. Работая с облачными партнерами CoreWeave и IBM, компания сообщила о 90-% эффективности масштабирования при расширении с 512 до 2496 ускорителей. Это отличный результат, поскольку линейное масштабирование редко достигается при увеличении количества ускорителей за пределами нескольких сотен. Эффективность масштабирования в диапазоне от 70 до 80 % уже считается солидным результатом, особенно при увеличении количества ускорителей в пять раз, пишет HPCwire. В семи рабочих нагрузках в MLPerf Training 5.0 ускорители Blackwell улучшили время сходимости «до 2,6x» при постоянном количестве ускорителей по сравнению с поколением Hopper (H100). Самый большой рост наблюдался при генерации изображений и предварительном обучении LLM, где количество параметров и нагрузка на память самые большие. Хотя в бенчмарке проверялась скорость выполнения операций, NVIDIA подчеркнула, что более быстрое выполнение задач означает меньшее время аренды облачных инстансов и более скромные счета за электроэнергию для локальных развёртываний. Хотя компания не публиковала данные об энергоэффективности в этом бенчмарке, она позиционировала Blackwell как «более экономичное» решение на основе достигнутых показателей, предполагая, что усовершенствования дизайна тензорных ядер обеспечивают лучшую производительность на Ватт, чем у поколения Hopper. Также HPCwire отметил, что NVIDIA была единственным поставщиком, представившим результаты бенчмарка предварительной подготовки LLM на основе Llama 3.1 405B, установив начальную точку отсчёта для обучения с 405 млрд параметров. Это важно, поскольку некоторые компании уже выходят за рамки 70–80 млрд параметров для передовых ИИ-моделей. Демонстрация проверенного рецепта работы с 405 млрд параметров даёт компаниям более чёткое представление о том, что потребуется для создания ИИ-моделей следующего поколения. В ходе пресс-конференции Дэйв Сальватор (Dave Salvator), директор по ускоренным вычислительным продуктам в NVIDIA, ответил на распространенный вопрос: «Зачем фокусироваться на обучении, когда в отрасли в настоящее время все внимание сосредоточено на инференсе?». Он сообщил, что тонкая настройка (после предварительного обучения) остается ключевым условием для реальных LLM, особенно для предприятий, использующих собственные данные. Он обозначил обучение как «фазу инвестиций», которая приносит отдачу позже в развёртываниях с большим объёмом инференса. Этот подход соответствует более общей концепции «ИИ-фабрики» компании, в рамках которой ускорителям даются данные и питание для обучения моделей. А затем производятся токены для использования в реальных приложениях. К ним относятся новые «токены рассуждений» (reasoning tokens), используемые в агентских ИИ-системах. NVIDIA также повторно представила результаты по Hopper, чтобы подчеркнуть, что H100 остаётся «единственной архитектурой, кроме Blackwell», которая показала лидерские показатели по всему набору MLPerf Training, хотя и уступила Blackwell. Поскольку инстансы на H100 широко доступны у провайдеров облачных сервисов, компания, похоже, стремится заверить клиентов, что существующие развёртывания по-прежнему имеют смысл. AMD, со своей стороны, продемонстрировала прирост производительности поколения чипов. В тесте Llama2 70B LoRA она показала 30-% прирост производительности AMD Instinct MI325X по сравнению с предшественником MI300X. Основное различие между ними заключается в том, что MI325X оснащён почти на треть более быстрой памятью. В самом популярном тесте, тонкой настройке LLM, AMD продемонстрировала, что её новейший ускоритель Instinct MI325X показывает результаты наравне с NVIDIA H200. Это говорит о том, что AMD отстает от NVIDIA на одно поколение, отметил ресурс IEEE Spectrum. AMD впервые представила результаты MLPerf Training, хотя в предыдущие годы другие компании представляли результаты в этом тесте, используя ускорители AMD. В свою очередь, Google представила результаты лишь одного теста, задачи генерации изображений, с использованием Trillium TPU. Тест MLPerf также включает тест на энергопотребление, измеряющий, сколько энергии уходит на выполнение каждой задачи обучения. В этом раунде лишь Lenovo включила измерение этого показателя в свою заявку, что сделало невозможным сравнение между компаниями. Для тонкой настройки LLM на двух ускорителях Blackwell требуется 6,11 ГДж или 1698 КВт·ч — примерно столько энергии уходит на обогрев небольшого дома зимой.
07.06.2025 [00:30], Сергей Карасёв
«Аквариус» анонсировала защищённую платформу СХД S2-1 с российским процессором Baikal-S
arm
baikal-s
hardware
micro-atx
аквариус
информационная безопасность
материнская плата
россия
сделано в россии
сервер
схд
Компания «Аквариус» сообщила о разработке аппаратной платформы СХД под названием S2-1, которая предназначена для построения защищённой IT-среды. Решение ориентировано на государственные учреждения, финансовые организации и объекты критической информационной инфраструктуры (КИИ). В основу платформы положены сервер Aquarius AQ2BS1000 и российский процессор Baikal-S (BE-S1000), разработанный компанией «Байкал Электроникс». Характеристики этого чипа включают 48 ядер Arm Cortex-A75 с частотой более 2 ГГц, шесть каналов памяти DDR4-3200 ECC, 80 линий PCIe 4.0, два интерфейса 1GbE, а также 32 × GPIO, 2 × UART, 1 × QSPI и пр. Материнская плата (476 × 427 мм) включает два процессорных сокета LGA3467, 24 слота DIMM (суммарно до 1,5 Тбайт RAM), OCP-слот, а также BMC ASPEED AST2500. UEFI разработан «Байкал Электроникс», а для BMC используется прошивка OpenBMC от «Аквариус». Полные технические характеристики платформы S2-1 пока не раскрываются. Как отмечает «Аквариус», на сегодняшний день готовы инженерные образцы СХД. По заявлениям разработчика, система отличается высокой гибкостью и возможностью быстрой адаптации под конкретные задачи заказчика. Используются безопасные серверы, которые не содержат недокументированных функций, что «обеспечивает высокий уровень доверия и прозрачности». Кроме того, реализована защита от физического вторжения: данные остаются в сохранности даже при непосредственном доступе злоумышленника к устройству. «Мы создаём не просто железо — мы строим крепость для данных, которая адаптируется под любые вызовы времени. Наши решения — это надёжность, проверенная временем, и безопасность, которая не подведёт даже в самых сложных условиях. В этом контексте аппаратная платформа СХД S2-1 является опорой для бизнеса и государства в мире цифровых угроз», — подчёркивает директор департамента по развитию серверных решений группы компаний «Аквариус». ![]() Aquarius AQBS1000 (Источник изображения: «Аквариус») Кроме того, «Аквариус» имеет однопроцессорную платформу AQBS1000 для Baikal-S. Материнская плата по формату близка к Mini-ATX (476 × 427 мм) и несёт шесть DIMM-слотов, один слот PCIe 4.0 x16 и три слота x8, четыре OCuLink-разъёма PCIe 4.0 (x8 или два x4), разъём Mini-SAS HD (4 × SATA-3), два слота M.2 2280 M-Key (SATA-3/NVMe PCIe 3.0), по паре портов USB 2.0 и 3.0 Type-A, два 1GbE-порта R45, а также выделенный 1GbE-порт для BMC ASPEED AST2500.
06.06.2025 [18:46], Руслан Авдеев
AMD продолжает шоппинг: компания купила стартап Brium для борьбы с доминированием NVIDIAВ последние дни компания AMD активно занимается покупками компаний, так или иначе задействованных в разработке ИИ-технологий. Одним из последних событий стала покупка стартапа Brium, специализирующегося на инструментах разработки и оптимизации ИИ ПО, сообщает CRN. AMD, по-видимому, всерьёз обеспокоилась развитием программной экосистемы после того, как выяснилось, что именно ПО не даёт раскрыть весь потенциал ускорителей Instinct. О покупке Brium, в состав которой входят «эксперты мирового класса в области компиляторов и программного обеспечения для ИИ», было объявлено в минувшую среду. Финансовые условия сделки пока не разглашаются. По словам представителя AMD, передовое ПО Brium укрепит возможности IT-гиганта «поставлять в высокой степени оптимизированные ИИ-решения», включающие ИИ-ускорители Instinct, которые играют для компании ключевую роль в соперничестве с NVIDIA. Дополнительная информация изложена в пресс-релизе AMD. В AMD уверены, что разработки Brium в области компиляторных технологий, фреймворков для выполнения моделей и оптимизации ИИ-инференса позволят улучшить эффективность и гибкость ИИ-платформы нового владельца. Главное преимущество, которое AMD видит в Brium — способность стартапа оптимизировать весь стек инференса до того, как модель начинает обрабатываться аппаратным обеспечением. Это позволяет снизить зависимость от конкретных конфигураций оборудования и обеспечивает ускоренную и эффективную работу ИИ «из коробки». В частности, команда Brium «немедленно» внесёт вклад в ключевые проекты вроде OpenAI Triton, WAVE DSL и SHARK/IREE, имеющие решающее значение для более быстрой и эффективной эксплуатации ИИ-моделей на ускорителях AMD Instinct. У технического директора Brium Квентина Коломбета (Quentin Colombet) десятилетний опыт разработки и оптимизации компиляторов для ускорителей в Google, Meta✴ и Apple. ![]() Источник изображения: AMD Компания сосредоточится на внедрении новых форматов данных вроде MX FP4 и FP6, которые уменьшают объём вычислений и снижают энергопотребление, сохраняя приемлемую точность моделей. В результате разработчики могут добиться более высокой производительности ИИ-моделей, снижая затраты на оборудование и повышая энергоэффективность. Покупка Brium также поможет ускорить создание open source инструментов. Это даст возможность AMD лучше адаптировать свои решения под специфические потребности клиентов из разных отраслей. Так, Brium успешно адаптировала Deep Graph Library (DGL) — фреймворк для работы с графовыми нейронными сетями (GNN) — под платформу AMD Instinct, что дало возможность эффективно запускать передовые ИИ-приложения в области здравоохранения. Такого рода компетенции повышают способность AMD предоставлять оптимальные решения для отраслей с высокой добавленной стоимостью и расширять охват рынка. Brium — лишь одно из приобретений AMD за последние дни для усиления позиций в соперничестве с NVIDIA, доминирование которой на рынке ИИ позволило получить в прошлом году выручку, более чем вдвое превышавшую показатели AMD и Intel вместе взятых. В числе последних покупок — стартап Enosemi, работающий над решениями в сфере кремниевой фотоники, поставщик инфраструктуры ЦОД ZT Systems, а также софтверные стартапы Silo AI, Nod.ai и Mipsology. Кроме того, совсем недавно компания купила команду Untether AI, не став приобретать сам стартап.
06.06.2025 [17:58], Руслан Авдеев
AMD купила команду разработчика ИИ-чипов Untether AI, но не саму компанию, которая тут же закрыласьКомпания AMD объявила об очередной за несколько дней корпоративной покупке. Она наняла неназванное количество сотрудников Untether AI, разрабатывающей ИИ-чипы для энергоэффективного инференса в ЦОД и на периферии, сообщает Silicon Angle. Первым информацией о сделке поделился представитель рекрутинговой компании SBT Industries, специализирующейся на полупроводниковой сфере. Позже в AMD подтвердили, что компания приобрела «талантливую команду инженеров по аппаратному и программному ИИ-обеспечению» у Untether AI. Новые сотрудники помогут оптимизировать разработку компиляторов и ядер ИИ-систем, а также улучшить проектирование чипсетов, их проверку и интеграцию. Вероятно, сделку завершили в прошлом месяце, причём в команду не вошёл глава Untether Крис Уокер (Chris Walker), перешедший в стартап из Intel и возглавивший его в начале 2024 года. Судя по информации из соцсетей, Уокер покинул компанию в мае. Сделка довольно необычна, поскольку никаких активов компании не покупалось, но Untether AI уже объявила о закрытии бизнеса и поставок или поддержки чипов speedAI и ПО imAIgine Software Development Kit (SDK). ![]() Источник изображения: Untether AI Untether AI была основана 2018 году в Торонто (Канада). В июле 2021 года стартап привлёк $125 млн в раунде финансирования, возглавленном венчурным подразделением Intel Capital. Компания разрабатывала энергоэффективные чипы для инференса для периферийных решений, потребляющих мало энергии. В одной упаковке объединялись модули для вычислений и память. В октябре 2024 года начала продажи чипа speedAI240 Slim (развитие speedAI240). speedAI240 Slim, по данным компании, втрое энергоэффективнее аналогов в сегменте ЦОД. Помимо Intel, Untether AI имела партнёрские отношения с Ampere Computing, Arm Holdings и NeuReality. Буквально в минувшем апреле Уокер сообщил журналистам, что компания отметила большой спрос на свои чипы для инференса со стороны покупателей, ищущих альтернативы продуктам NVIDIA с более высокой энергоёмкостью. Более того, в прошлом году компания договорилась с индийской Ola-Krutrim о совместной разработке ИИ-ускорителей не только для инференса, но и для тюнинга ИИ-моделей. Покупка состоялась всего через два дня после объявления о приобретении малоизвестного стартапа Brium, специализировавшегося на инструментах разработки и оптимизации ИИ ПО. Вероятно, AMD заинтересована в использовании его опыта для оптимизации инференса на отличном от NVIDIA оборудовании. Сделка с Brium состоялась всего через шесть дней после того, как AMD объявила о покупке разработчика систем кремниевой фотоники Enosemi. Это поможет AMD нарастить компетенции в соответствующей сфере, поскольку всё больше клиентов пытаются объединять тысячи ускорителей для поддержки интенсивных ИИ-нагрузок.
06.06.2025 [09:25], Сергей Карасёв
Российская «Аскон» представила инженерный ПАК на китайском процессоре LoongsonКомпания «Аскон», занимающаяся разработкой инженерного программного обеспечения, в ходе конференции «Цифровая индустрия промышленной России» (ЦИПР) продемонстрировала программно-аппаратный комплекс (ПАК) для инженеров. В создании системы приняли участие производитель серверного оборудования и СХД «Норси-Транс», а также «Базальт СПО» — разработчик российских ОС семейства «Альт». Представленный ПАК выполнен в виде настольной рабочей станции. В основу положен неназванный китайский процессор Loongson с архитектурой LoongArch. Утверждается, что эти чипы «успешно прошли спецпроверки и специсследования», что позволяет использовать их в критической информационной инфраструктуре (КИИ). Изделия рассматриваются в качестве альтернативы процессорам AMD и Intel. Полностью технические характеристики ПАК не раскрываются. Известно, что за аппаратную часть отвечала компания «Норси-Транс». Судя по опубликованному изображению, в рабочую станцию установлены два LFF-накопителя. На фронтальную панель выведены порты USB Type-A, стандартные аудиогнезда на 3,5 мм. Применена программная платформа «Альт» разработки «Базальт СПО». Кроме того, установлена система проектирования «Компас-3D» от «Аскон». По заявлениям разработчиков, результаты сравнительного тестирования «Компас-3D» для Linux на процессорах Loongson и Intel Core i5 с одной и той же видеокартой показали незначительное падение быстродействия в случае китайских чипов. При этом подтверждена принципиальная возможность применения ПАК для инженерных задач, включая проектирование, создание 3D-моделей изделия и разработку конструкторской документации. «Наша совместная с партнёрами разработка направлена на достижение технологического суверенитета промышленности. Если первым шагом было импортозамещение программного обеспечения, то теперь пора сделать следующий — импортозамещение IT-инфраструктуры на уровне программно-аппаратных комплексов», — отмечает глава «Аскон».
05.06.2025 [17:27], Руслан Авдеев
1 Тбит/с на 4,7 тыс. км: Nokia протестировала сверхбыструю квантово-защищённую сеть для ИИ-суперкомпьютеровNokia, финский центр CSC (Finnish IT Center for Science) и ассоциация образовательных и исследовательских учреждений Нидерландов SURF успешно испытали сверхбыструю (1,2 Тбит/с) квантово-безопасную магистраль передачи данных между Амстердамом и Каяани (Kajaani, Финляндия). Эксперимент направлен на подготовку инфраструктуры для HPC- и ИИ-систем, каналы связи которой защищены от взлома квантовыми компьютерами будущего, сообщает Converge. Испытание, проведённое в мае 2025 года, позволило установить связь по ВОЛС на расстоянии более 3,5 тыс. км, а длина одного из тестовых маршрутов через Норвегию составила 4,7 тыс. км (1 Тбит/с). Инициатива рассчитана на поддержку и развитие возможностей финского ИИ-суперкомпьютера LUMI-AI. Также речь идёт о поддержке будущих ИИ-фабрик (AI Factories), которым потребуются защищённые каналы со сверхвысокой пропускной способностью. Тестовый запуск включал передачу синтезированных и реальных исследовательских данных «с диска на диск» через пять исследовательских и образовательных сетей, включая SURF (Нидерланды), NORDUnet (преимущественно скандинавские страны), Sunet (Швеция), SIKT (Норвегия) и Funet (Финляндия). Эксперимент подтвердил возможность обработки огромных непрерывных потоков данных, необходимых для современных нагрузок, обучения и эксплуатации ИИ-моделей. ![]() Источник изображения: LUMI В сети использовали маршрутизаторы Nokia IP/MPLS с поддержкой FlexE (Flexible Ethernet) для гибкого разделения физических интерфейсов на логические каналы с гарантированной пропускной способностью и квантово-защищённой передачу данных. Новая веха свидетельствует о готовности европейской инфраструктуры к интенсивному использованию данных, в том числе пакетов климатической информации петабайтных объёмов, информации для обучения ИИ-моделей и т.д. Эксперимент также подтвердил возможность безопасных, дальних многодоменных передач между разными сетями или административными границами. Это насущная потребность для современных международных проектов, где данные нужно передавать через разные сети без ущерба производительности и безопасности. По словам финских исследователей, исследовательские сети проектируются с учётом потребностей будущего. В ЦОД CSC в Каяани уже размещен общеевропейский суперкомпьютер LUMI, а с реализацией подпроекта LUMI-AI и ввода других ИИ-фабрик EuroHPC наличие надёжной и масштабируемой системы связи Европе просто необходима.
05.06.2025 [16:20], Владимир Мироненко
HPE подготовила запасной план на случай блокировки сделки с JuniperГенеральный директор Hewlett Packard Enterprise (HPE) Антонио Нери (Antonio Neri) сохраняет оптимизм по поводу возможности одобрения американскими регулирующими органами сделки по приобретению Juniper Networks, но вместе с тем признался, что в компании обсуждали резервный план на случай их отказа, пишет The Register. В январе этого года Министерство юстиции США подало в суд, чтобы заблокировать сделку HPE и Juniper, поскольку по мнению ведомства слияние двух компаний несёт угрозу конкуренции на рынке WLAN и в итоге приведёт к росту цен для потребителей. Ранее Нери прогнозировал, что суд в июле одобрит сделку, и она будет закрыта к концу календарного 2025 года. В ходе отчёта за II квартал 2025 финансового года, завершившийся 30 апреля, Нери повторил этот прогноз, отметив, что самый быстрый способ увеличить стоимость акций компании — завершить сделку. «Но мы также рассмотрели и изучили ряд других вариантов на случай, если сделка с Juniper не состоится», — сказал он, назвав «возврат капитала и другие работы с портфолио» в качестве альтернатив. «Но мы не будем обсуждать их, пока не увидим результат сделки с Juniper, — добавил Нери. — И мы после судебного разбирательства надеемся получить этот результат и начать интеграцию активов». Нери сообщил, что во II финансовом квартале выручка выросла на 5,9 % в годовом исчислении до $7,63 млрд, что привело к росту стоимости акций компании примерно на 5 % в ходе внебиржевых торгов, несмотря на чистый убыток (GAAP) в размере $1,05 млрд или 82 цента на акцию, который объясняется обесцениванием гудвилла на $1,36 млрд, связанным с пересчетом ставок дисконтирования в её гибридном облачном подразделении. HPE пятый квартал подряд отчитывается о росте выручки в годовом исчислении. Годом ранее у HPE была чистая прибыль (GAAP) в размере $314 млн или 24 цента на акцию. Скорректированная прибыль (non-GAAP) на акцию составила 38 центов, тогда как средний прогноз аналитиков составлял 38 центов на акцию при выручке в $7,46 млрд. Выручка от продажи серверов выросла на 6 % до $4,06 млрд. При этом выручка от ИИ-систем составила $1,0 млрд при среднем прогнозе аналитиков в размере $798 млн. Портфель невыполненных заказов по поставке ИИ-серверов равен $3,2 млрд. Выручка сегмента гибридного облака HPE, включающего СХД и часть серверного бизнеса, на который также приходится HPE GreenLake, увеличилась год к году на 13 % до $1,45 млрд. Количество клиентов платформы HPE GreenLake составляет 42 тыс. Выручка сегмента Intelligent Edge, отвечающего, в частности, за продажи IoT-продукции и сетевой бизнес Aruba, выросла на 7 % год к году до $1,16 млрд. Доход компании от финансовых услуг упал на 1,3 % до $856 млн. Нери выразил оптимизм по поводу стека виртуализации HPE VM Essentials, предлагаемого в качестве альтернативы для пользователей VMware, недовольных изменениями лицензирования Broadcom. «Мы можем снизить стоимость виртуализации для клиентов на 90 %», — заявил он, отметив высокий интерес клиентов к VM Essentials. Прогноз HPE на III финансовый квартал по выручке составляет от $8,2 до $8,5 млрд, по скорректированной разводнённой прибыли на акцию — от $0,40 до $0,45. Аналитики, опрошенные FactSet, прогнозируют скорректированную прибыль в размере $0,41 на акцию при продажах в размере $8,22 млрд. Финансовый директор Мари Майерс (Marie Myers) сообщила об улучшении бизнес-среды. По её словам, в начале последнего квартала макроэкономическая неопределённость и опасения по поводу торговых войн давили на спрос, но с тех пор настроения улучшились. Несмотря на это, HPE снизила верхнюю границу своего годового прогноза продаж из-за непредсказуемого характера сделок, связанных с ИИ. В то же время компания повысила нижнюю границу своего прогноза прибыли благодаря освобождению от пошлин своих продуктов. По словам Майерс, многие из продуктов HPE подпадают под соглашение США, Мексики и Канады (United States-Mexico-Canada Agreement, USMCA). В результате компания прогнозирует, что пошлины вызовут снижение скорректированной прибыли на акцию на 4 цента за год, что меньше предыдущего прогноза в 7 центов. Финансовый директор также отметила, что исключения USMCA позволяют HPE не так активно задействовать некоторые из запланированных мер по смягчению последствий введения пошлин, таких как реструктуризация цепочек поставок и повышение цен. HPE ожидает получить в текущем финансовом году скорректированную прибыль на акцию в размере $1,78–$1,90 по сравнению с предыдущим прогнозом в размере $1,70–$1,90. Компания снизила верхнюю границу своего прогноза продаж, теперь ожидая рост выручки на 7–9 % по сравнению с предыдущим прогнозом в размере 7–11 %.
05.06.2025 [15:38], Руслан Авдеев
Виноваты ИИ ЦОД — c 2020 года углеродные выбросы Microsoft выросли на 23 %В отчёте последнем отчёте Microsoft Environmental Sustainability Report, посвящённом экоустойчивости бизнеса, указано, что строительство новых дата-центров вызвало увеличение углеродных выбросов компании. Рост с 2020 года составил 23,4 %, сообщает Datacenter Dynamics. По данным компании, хотя удалось добиться заметных успехов в инвестициях в возобновляемую энергетику и сокращение выбросов, последние продолжают расти — в первую очередь из-за строительства всё новых ЦОД в рамках инвестиций Microsoft в ИИ и облако. Впрочем, рост компанией описан как «скромный» в сравнении с ростом энергопотребления — за тот же период оно увеличилось на 168 %, хотя на 71 % выросла и выручка. Для борьбы с ростом выбросов компания продолжает работать над расширением рынков безуглеродной энергетики по всей цепочке поставок. Также компания инвестирует в декарбонизацию секторов, ответственных за выпуск стали, бетона и других строительных материалов, используемых при создании ЦОД, а также в топливный сектор. ![]() Источник изображения: Guillaume de Germain/unsplash.com Более 97 % выбросов относится к категории Scope 3, находящихся вне прямого контроля компании. Обычно они связаны с транспортировкой, закупкой сырья, а также различными товарами и услугами. Основная часть выбросов приходится на капитальные решения (например, оборудование и инфраструктуру) и закупаемые товары и услуги, доля выбросов от которых составляет более 75 % от общего объёма всех её выбросов. Microsoft продолжает заключать контракты на значительные мощности возобновляемой энергетики для «декарбонизации» своего портфолио. Так, в 2024 году были заключены долгосрочные соглашения о покупке 19 ГВт из возобновляемых источников в 16 странах. Всего портфолио «зелёной» энергии компании составляет 34 ГВт. При этом компания отметила, что столкнулась с определёнными трудностями при закупке экологически чистой энергии поблизости от своих дата-центров, особенно в регионах, где электроснабжение ограничено. Кроме того, компания подтвердила свою роль в качестве крупнейшего корпоративного покупателя услуг по захвату углерода. В прошлом году Microsoft купила кредиты на удаление почти на 22 млн т, больше, чем за все предыдущие годы. При этом ставка делается на разные «технологии» — от восстановления лесов до различных методов захвата газа из атмосферы. ![]() Источник изображения: Microsoft Компании приходится наращивать усилия по декарбонизации своего бизнеса, поскольку уже в 2030 году она намерена удалять больше углерода, чем генерирует разными способами. Решающим фактором в этой борьбе станет успешная декарбонизация строительства ЦОД. В отчёте отмечены успехи с запуском ЦОД Microsoft с использованием древесины в гибридном строительстве. Эта модель, как считают в компании, сокращает углеродный след от строительства объектов на 65 % в сравнении с использованием сборных железобетонных конструкций. Также упоминаются инвестиции в производителей экобезопасных материалов вроде шведской Stegra, которая выпускает «зелёную» сталь. В то же время отмечен прогресс в мерах по повышению энергоэффективности в ЦОД, в т.ч. с переводом серверов в режим пониженного энергопотребления, позволяющим снизить потребление энергии на 35 %. Подобная инициатива расширена с тысяч серверов в 2022 году до почти 2 млн к концу 2024 года. Дополнительно Microsoft подтвердила намерение добиться более эффективного использования воды в ЦОД, в том числе за счёт инновационных конструкций, оптимизирующих рабочие нагрузки ИИ и не потребляющих воды для охлаждения — это позволит избежать использования около 125 тыс. м3/год на объект. О росте углеродных выбросов Microsoft сообщалось ещё в 2024 году. Ещё в начале 2024 года Uptime Institute прогнозировал отказ операторов ЦОД от прежних «зелёных» обещаний и сокрытие экологических показателей. |
|