Материалы по тегу: ии

07.05.2025 [09:05], Владимир Мироненко

IBM разработала инструменты для быстрого создания и интеграции ИИ-агентов

IBM планирует укрепить свои позиции на быстрорастущем рынке ИИ-технологий с помощью увеличения инвестиций в США и предложения собственных инструментов, которые помогут клиентам управлять ИИ-агентами для их ключевых бизнес-приложений. Об этом сообщил генеральный директор IBM Арвинд Кришна (Arvind Krishna) в интервью агентству Reuters.

Глава IBM заявил, что разработанное компанией ПО позволяет клиентам создавать собственные ИИ-системы, а также интегрировать ИИ-агентов от других провайдеров, включая Salesforce, Adobe и Workday. Это поможет удовлетворить потребность в кастомных решениях во многих областях бизнеса.

Подход IBM заключается в том, чтобы предложить полный спектр облачных и ИИ-сервисов остальным компаниям, которые в настоящее время полагаются на лидеров рынка AWS и Microsoft. Особое внимание IBM уделяет внедрению функций ИИ в мультиоблачных платформах, что найдёт спрос среди тех, кому нужны кастомные ИИ-решения, а также в собственные инфраструктуры заказчиков для управления данными.

 Источник изображения: IBM

Источник изображения: IBM

По словам гендиректора IBM, предлагаемые инструменты, позволяющие создавать собственных ИИ-агентов в течение не более пяти минут, основаны на семействе LLM Granite, а также на альтернативных моделях от Meta Platforms и Mistral. IBM сообщила, что уже получила заказы на создание решений на базе генеративного ИИ на $6 млрд.

Также компания объявила в апреле о планах инвестировать в течение пяти лет $150 млрд в США, где она в течение более 60 лет производит мейнфреймы. Кришна подчеркнул, что квантовые компьютеры тоже будут производиться в США. Глава IBM отметил, что синергия мейнфреймов, ИИ и квантовых вычислений, как ожидается, создаст надёжный и устойчивый рынок, в который следует инвестировать и который позволит компании использовать эти достижения в течение следующего десятилетия.

Кришна добавил, что фокус на технологии и сокращение регулирования со стороны администрации оказали благотворное влияние на экономику США, способствуя её росту. Это позволяет IBM наращивать инвестиции и инновации, тем самым потенциально укрепляя свою конкурентную позицию как поставщика бизнес-решений на основе ИИ.

Постоянный URL: http://servernews.ru/1122412
06.05.2025 [21:12], Руслан Авдеев

Meta✴ Llama API задействует ИИ-ускорители Cerebras и Groq

Meta объединила усилия с Cerebras и Groq для инференс-сервиса с применением API Llama. Открыв API-доступ к собственным моделям, Meta становится чуть более похожа на облачных провайдеров.

Как утверждают в Cerebras, разработчики, применяющие API для работы с моделями Llama 4 Cerebras, могут получить скорость инференса до 18 раз выше, чем у традиционных решений на базе GPU. В компании объявили, что такое ускорение позволит использовать новейшее поколение приложений, которые невозможно построить на других ИИ-технологиях. Речь, например, идёт о «голосовых» решениях с низкой задержкой, интерактивной генерации кода, мгновенном многоэтапном рассуждении и т. п. — многие задачи можно решать за секунды, а не минуты.

После запуска инференс-платформы в 2024 году Cerebras обеспечила для Llama самый быстрый инференс, обрабатывая миллиарды токенов через собственную ИИ-инфраструктуру. Теперь прямой доступ к альтернативам решений OpenAI получит широкое сообщество разработчиков. По словам компании, партнёрство Cerebras и Meta позволит создавать ИИ-системы, «принципиально недосягаемые для ведущих облаков». Согласно замерам Artificial Analysis, Cerebras действительно предлагает самые быстрые решения для ИИ-инференса, более 2600 токенов/с для Llama 4 Scout.

 Источник изображения: ***

Источник изображения: Meta

При этом Cerebras не единственный партнёр Meta. Она также договорилась с Groq об использовании ускорителей Language Processing Units (LPU), которые обеспечивают высокую скорость (до 625 токенов/с), низкую задержку и хорошую масштабируемость при довольно низких издержках. Groq использует собственную вертикально интегрированную архитектуру, полностью контролируя и железо, и софт. Это позволяет добиться эффективности, недоступной в облаках на базе универсальных ИИ-чипов.

Партнёрство с Meta усиливает позиции Groq и Cerebras в борьбе с NVIDIA. Для Meta новое сотрудничество — очередной шаг в деле выпуска готовых open source ИИ-моделей, которые позволят сосредоточиться на исследованиях и разработке, фактически передав инференс надёжному партнёру. Разработчики могут легко перейти на новый стек без необходимости дообучения моделей или перенастройки ускорителей — API Llama совместимы с API OpenAI. Пока что доступ к новым API ограничен. Цены Meta также не сообщает.

Meta активно работает над продвижением своих ИИ-моделей. Так, она даже выступила с довольно необычной инициативой, предложив «коллегам-конкурентам» в лице Microsoft и Amazon, а также другим компаниям, поделиться ресурсами для развития и обучения моделей Llama.

Постоянный URL: http://servernews.ru/1122365
06.05.2025 [17:46], Владимир Мироненко

Эксперты: репрессии Трампа в отношении «зелёной» энергетики навредят США в гонке за ИИ-лидерство

Вступив в должность президента США, Дональд Трамп (Donald Trump) объявил самую настоящую войну «зелёной» энергетике. Одним из его первых распоряжений был указ о приостановке утверждения проектов в области чистой энергии на федеральных землях, пишет The Financial Times.

Также было приостановлено выделение федеральных займов на проекты в этой сфере, а в апреле Бюро по управлению энергией океана (Bureau of Ocean Energy Management, BOEM) направило компании Empire Offshore Wind предписание на время проведения проверки приостановить строительство ветропарка Empire Wind стоимостью $2,5 млрд у восточного побережья США.

По словам экспертов, отказ от возобновляемых источников энергии может привести к проблемам в электроснабжении технологических компаний, которые стремятся обеспечить надёжные поставки энергии для питания и обучения ИИ, что повлечёт за собой рост затрат и может подтолкнуть операторов к использованию более «грязной» энергии.

В Hitachi Vantara заявили, что «антагонистический подход» администрации Трампа к возобновляемым источникам энергии может сделать «невозможным удовлетворение [потребностей в обработке] всё растущих объёмов данных». В компании отметили, что стратегически США рискуют подорвать свою текущую позицию лидера в глобальной гонке ИИ, в то время как Китай активно занимается модернизацией энергосетей и эффективным распределением энергии. Дефицит энергии может «привести к отмене или задержкам в строительстве ЦОД или модернизации инфраструктуры», предупредила Hitachi Vantara.

 Источник изображения: James Whately/unsplash.com

Источник изображения: James Whately/unsplash.com

Ранее администрация Трампа заявила, что проигрыш в ИИ-гонке Китаю представляет большую угрозу для мира, чем глобальное потепление, выступив за увеличение использования ископаемого топлива для питания ЦОД. В свою очередь, эксперты предупреждают, что будет сложно удовлетворить растущий спрос без добавления гораздо большего количества мощностей возобновляемой энергии, запустить которые можно быстрее и дешевле, чем строить газовые электростанции.

Наступление Трампа на возобновляемые источники энергии обеспокоило ряд политиков, которые взяли курс на расширение использования ветроэнергетики для удовлетворения будущего спроса на электроэнергию. В минувший понедельник генеральные прокуроры 17 штатов подали в суд на администрацию Трампа в связи с её политикой по сворачиванию развития ветроэнергетики в США.

Также политика запрета возобновляемых источников энергии усложняет задачу Equinix, Microsoft, Google и Meta по компенсации выбросов и инвестированию в возобновляемые источники энергии. «Спрос [на возобновляемые источники энергии] достиг исторического максимума», — отметил Кристофер Уэллиз (Christopher Wellise), вице-президент по устойчивому развитию в Equinix, добавив, что в сочетании с ограничениями администрации Трампа это может вызвать проблемы с обеспечением энергией в среднесрочной перспективе.

Постоянный URL: http://servernews.ru/1122395
06.05.2025 [14:36], Руслан Авдеев

«Билайн» готовит российский сервис ИИ-инференса на отечественном оборудовании

«Билайн» и один из российских производителей серверов ведут переговоры о возможной доработке решений для ИИ-инференса — весьма перспективной в обозримом будущем услуги. Сама «Билайн» разрабатывает инфраструктурное ПО, входящее в часть специального программно-аппаратного комплекса, сообщают «Ведомости».

На основе таких комплексов партнёры смогут развернуть ИИ-модели, а «Билайн» в перспективе сможет предлагать их в своих дата-центрах, продавая доступ к соответствующим мощностям бизнес-клиентам. По словам одного из источников, сейчас «Билайн» договаривается с OpenYard. Последняя подтвердила, что ведёт переговоры с рядом телеком-операторов, но подробности возможных сделок раскрывать не стала.

Тем временем в «Билайне» отмечают рост спроса на аренду стоек с GPU-серверами. Правда, платить за это готовы «не все», отмечают в компании. По оценкам экспертов, сотрудничество «Билайн» с OpenYard позволит первой запустить новые сервисы, а для второй — получить крупного заказчика на оборудование. Для крупных компаний, как считают эксперты, такой совместный сервис будет обходиться в 100–200 млн руб. в год.

 Источник изображения: Lyubomyr (Lou) Reverchuk/unsplash.com

Источник изображения: Lyubomyr (Lou) Reverchuk/unsplash.com

Ожидается, что в первую очередь новое решение заинтересует банки (для создания чат-ботов и скоринга), IT-компании и просто крупный бизнес (для ИИ-аналитики), а также, например, телеком-операторов и промышленный сектор. Как ранее писали «Ведомости», к 2030 году в российских ЦОД будут развёрнуты ускорители, эквивалентные по производительности 70 тыс. ускорителей NVIDIA A100. Стоимость закупки, вероятно, составит $1,5–$2 млрд.

Впрочем, уникальность инференс-решений для России — под вопросом. Например, в октябре прошлого года Selectel запустил бета-тестирование собственного инференс-сервиса для ускорения запуска ИИ-моделей. В конце апреля 2025 года Cloud.ru представил «первый в России» управляемый облачный сервис для инференса ИИ-моделей — Evolution ML Inference.

Постоянный URL: http://servernews.ru/1122371
06.05.2025 [12:43], Андрей Крупин

Состоялся релиз отечественной «Ред ОС» 8 для Arm-платформ

Компания «Ред Софт» сообщила о доступности установочных ISO-образов операционной системы «Ред ОС» 8 для устройств на базе процессоров с Arm-архитектурой.

Программная платформа «Ред ОС» построена на базе ядра Linux, относится к классу операционных систем общего назначения и поставляется на рынок в конфигурациях «Рабочая станция» и «Сервер». Система может применяться для решения офисных задач, организации совместной работы, а также для развёртывания доменной инфраструктуры, файловых хранилищ, почтовых серверов и различных сервисов в составе корпоративной IT-среды. «Ред ОС» включена в реестр российского ПО как рекомендованная для закупки отечественными организациями и государственными структурами. В соответствии с лицензионным соглашением, физические лица могут использовать ОС бесплатно для личных целей. Поддержка «Ред ОС» восьмой версии будет обеспечиваться до 2028 года включительно.

 Пользовательский интерфейс «Ред ОС» (источник изображения: redos.red-soft.ru)

Пользовательский интерфейс «Ред ОС» (источник изображения: redos.red-soft.ru)

Ожидается, что реализация поддержки процессоров на архитектуре Arm в «Ред ОС» 8 позволит отечественным организациям снизить зависимость от зарубежного аппаратного обеспечения и значительно расширит сценарии применения продукта. В частности, система может использоваться в качестве рабочего окружения для серверов и рабочих станций, а также входить в состав промышленных решений. Например, обеспечивать функционирование компонентов АСУ ТП. Работоспособность ОС уже подтверждена для российских процессоров «Байкал-М» и «Байкал-S». Также платформа демонстрирует стабильную и корректную работу на чипах серий Ampere Altra и Huawei Kunpeng.

«Поддержка процессоров на базе архитектуры Arm позволит значительно расширить набор сценариев для работы с «Ред ОС» 8, а также сделать операционную систему доступнее для большего круга пользователей. Во-первых, мы закрываем потребности пользователей, ранее внедривших решения на базе архитектуры Arm и сейчас находящихся в поиске подходящей платформы. Во-вторых, мы расширяем возможности выбора аппаратных решений для российских компаний, планирующих и осуществляющих переход на отечественное ПО, включая операционную систему», — прокомментировал Рустам Рустамов, заместитель генерального директора «Ред Софт».

Постоянный URL: http://servernews.ru/1122379
06.05.2025 [11:12], Сергей Карасёв

Nebius внедрит системы хранения DDN в свою ИИ-инфраструктуру

Компания DataDirect Networks (DDN), специализирующаяся на системах хранения данных для НРС, объявила о заключении партнёрского соглашения с разработчиком ИИ-решений Nebius (бывшая материнская структура «Яндекса»). В рамках соглашения стороны займутся созданием высокопроизводительной подсистемы хранения данных для ресурсоёмких ИИ-задач.

Речь идёт об интеграции решений DDN Infinia и EXAScaler в облачную инфраструктуру Nebius AI Cloud. Эти системы будут использоваться для хранения данных, предназначенных для обучения больших языковых моделей, инференса и поддержания работы ИИ-приложений в реальном времени.

По заявлениям DDN, Infinia гарантирует надёжность и передовую производительность, благодаря чему ускоряется обучение и развёртывание моделей ИИ. Вместе с тем EXAScaler обеспечивает высокую пропускную способность и согласованность операций ввода-вывода. Другим преимуществом названных решений является возможность масштабирования в рамках облачных и локальных развёртываний: заказчики смогут быстро наращивать ресурсы в ИИ-облаке Nebius, гибридных и изолированных средах, используя параллельную файловую систему EXAScaler.

 Источник изображения: Nebius

Источник изображения: Nebius

Утверждается, что Infinia и EXAScaler устраняют проблемы с задержками при обработке данных. В результате, нагрузки ИИ могут обрабатываться с максимальной эффективностью — даже в случае моделей с несколькими триллионами параметров. В целом, как отмечают партнёры, благодаря интеграции систем DDN в облако Nebius клиенты смогут решать ИИ-задачи с более высокой скоростью и с меньшими временными и финансовыми затратами.

Постоянный URL: http://servernews.ru/1122355
05.05.2025 [20:06], Владимир Мироненко

Google и Broadcom совместно обеспечат кибербезопасность своих решений

Поскольку мир становится всё более зависимым от цифровой инфраструктуры, кибербезопасность превратилась из вспомогательной функции в основополагающий элемент, пишет ресурс SiliconANGLE. Следовательно, она должна быть интегрирована на всех уровнях технологического стека — от оборудования до программного обеспечения, сетей и пользовательского опыта. Сотрудничество Google Cloud и Broadcom является наглядным подтверждением этого тезиса.

Роберт Садовски (Robert Sadowski), директор по маркетингу продуктов, безопасности и доверию Google Cloud, и Джейсон Роллстон (Jason Rolleston), генеральный менеджер Enterprise Security Group компании Broadcom, в ходе общения на конференции RSAC 2025 рассказали, как Google Cloud и Broadcom объединяют тесную интеграцию, ИИ и десятилетия эволюции ПО для создания решений по кибербезопасности следующего поколения.

 Источник изображения: FlyD

Источник изображения: FlyD/unsplash.com

Как пояснил Садовски, компания, разработавшая инновационные технологии для таких продуктов, как Google Search и Android, предлагает возможности своей платформы и решения по обеспечению безопасности предприятиям и партнёрам, таким как Broadcom, чтобы те могли создавать и внедрять инновации в собственные продукты. Аналогичным образом Google поступила с Cloud WAN — полностью управляемой корпоративной платформой для подключения к сетевой инфраструктуре Google.

В свою очередь, Роллстон подчеркнул, что Google Cloud WAN — это не просто сетевой продукт, а защищённая, масштабируемая и глобально распределённая магистраль, которая позволяет Broadcom развёртывать решения по периметру служб безопасности в масштабе, обеспечивая низкую задержку, высокую производительность и последовательное применение политик в любой точке мира. По его словам, Broadcom использовала это решение для обнаружения и нейтрализации нисходящих угроз, распространяющихся в нижних звеньях цепочки распределения сети.

Собеседники отметили, что хотя ИИ обеспечивает такие инновации, как предиктивная аналитика и обнаружение угроз в реальном времени, он также создаёт огромные объёмы данных и открывает новые векторы атак. Топ-менеджеры сообщили, что Google Cloud и Broadcom изначально интегрируют ИИ в функции безопасности своих продуктов. Это позволяет автоматизировать обнаружение, обеспечить расширенную веб-изоляцию и адаптивное применение политик без ущерба для производительности.

Постоянный URL: http://servernews.ru/1122326
05.05.2025 [13:28], Сергей Карасёв

GigaIO и d-Matrix предоставят инференс-платформу для масштабных ИИ-развёртываний

Компании GigaIO и d-Matrix объявили о стратегическом партнёрстве с целью создания «самого масштабируемого в мире» решения для инференса, ориентированного на крупные предприятия, которые разворачивают ИИ в большом масштабе. Ожидается, что новая платформа поможет устранить узкие места в плане производительности и упростить внедрение крупных ИИ-систем.

В рамках сотрудничества осуществлена интеграция ИИ-ускорителей d-Matrix Corsair в состав НРС-платформы GigaIO SuperNODE. Архитектура Corsair основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости около 150 Тбайт/с. По заявлениям d-Matrix, ускоритель обеспечивает непревзойдённую производительность и эффективность инференса для генеративного ИИ. Устройство выполнено в виде карты расширения с интерфейсом PCIe 5.0 х16. Быстродействие достигает 2,4 Пфлопс с (8-бит вычисления). Изделие имеет двухслотовое исполнение, а показатель TDP равен 600 Вт.

В свою очередь, SuperNODE использует фирменную архитектуру FabreX на базе PCIe, которая позволяет объединять различные компоненты, включая GPU, FPGA и пулы памяти. По сравнению с обычными серверными кластерами SuperNODE обеспечивает более эффективное использование ресурсов.

 Источник изображения: d-Matrix

Источник изображения: d-Matrix

Новая модификация SuperNODE поддерживает десятки ускорителей Corsair в одном узле. Производительность составляет до 30 тыс. токенов в секунду при времени обработки 2 мс на токен для таких моделей, как Llama3 70B. По сравнению с решениями на базе GPU обещаны трёхкратное повышение энергоэффективности и в три раза более высокое быстродействие при сопоставимой стоимости владения.

«Наша система избавляет от необходимости создания сложных многоузловых конфигураций и упрощает развёртывание, позволяя предприятиям быстро адаптироваться к меняющимся рабочим нагрузкам ИИ, при этом значительно улучшая совокупную стоимость владения и операционную эффективность», — говорит Alan Benjamin (Алан Бенджамин), генеральный директор GigaIO.

Постоянный URL: http://servernews.ru/1122305
05.05.2025 [12:47], Сергей Карасёв

Терабитное облако: Backblaze запустила S3-хранилище B2 Overdrive для рабочих нагрузок ИИ и HPC

Американская компания Backblaze анонсировала облачное S3-хранилище B2 Overdrive, оптимизированное для нагрузок с интенсивным обменом данными, таких как задачи ИИ и НРС. Утверждается, что платформа в плане соотношения производительности/цены значительно превосходит предложения конкурентов.

Backblaze отмечает, что при работе с ресурсоёмкими приложениями ИИ, машинного обучения, доставки контента или аналитики, клиенты зачастую сталкиваются с выбором: платить больше за максимальную скорость доступа к облаку или жертвовать производительностью, чтобы сохранить расходы на приемлемом уровне. B2 Overdrive, как утверждается, решает эту проблему.

Новый сервис обеспечивает пропускную способность до 1 Тбит/с, а цена начинается с $15 за 1 Тбайт в месяц. Минимальный заказ — несколько Пбайт. Заявленный показатель безотказного функционирования — 99,9 %. Предоставляется бесплатный вывод данных из облака в трехкратном среднем ежемесячном объёме хранения клиента. После превышения этого значения стоимость составляет $0,01 за 1 Гбайт. Скидки за объём и сроки хранения доступны с сервисом B2 Reserve.

 Источник изображения: Backblaze

Источник изображения: Backblaze

Для хранения данных в облаке B2 Overdrive применяются HDD. Подключение к инфраструктуре клиента осуществляется через защищённую частную сеть. Информацию в экзабайтном масштабе можно свободно перемещать в любой кластер GPU или HPC с неограниченным бесплатным выводом.

Среди прочих преимуществ B2 Overdrive компания Backblaze выделяет отсутствие требований к минимальному размеру файлов, уведомления о событиях, а также бесплатное удаление информации. Приём заявок на подключение к сервису уже начался.

Постоянный URL: http://servernews.ru/1122306
05.05.2025 [12:38], Сергей Карасёв

McKinsey: инвестиции в ИИ ЦОД к 2030 году превысят $5 трлн

Консалтинговая компания McKinsey обнародовала прогноз по развитию дата-центров в глобальном масштабе до 2030 года. Аналитики отмечают, что ключевым драйвером отрасли будет оставаться ИИ, а операторы ЦОД и гиперскейлеры продолжат активно наращивать мощности.

В общей сложности, как ожидается, капиталовложения в дата-центры по всему миру к концу десятилетия достигнут $6,7 трлн. Из этой суммы, полагают специалисты McKinsey, примерно $5,2 трлн будет потрачено на объекты, оптимизированные для задач ИИ, а оставшиеся $1,5 трлн — на ЦОД, рассчитанные на традиционные рабочие нагрузки.

Если прогноз McKinsey оправдается, то в ИИ-сегменте из общей суммы в $5,2 трлн на строительные работы пойдёт приблизительно 15 %, или $800 млрд: это средства на землю, материалы и возведение необходимых сооружений. Ещё около 25 %, или $1,3 трлн, составят затраты, связанные с поставками и использованием энергии, включая электрическую инфраструктуру (трансформаторы, генераторы) и системы охлаждения. Оставшиеся 60 %, или $3,1 трлн, будут направлены на закупки необходимого IT-оборудования и систем, в том числе серверов, GPU-ускорителей, стоечных решений и пр.

 Источник изображения: McKinsey

Источник изображения: McKinsey

Вместе с инвестициями будут расти и мощности дата-центров. В 2025 году общемировой показатель, по данным McKinsey, окажется на уровне 82 ГВт, из которых 44 ГВт придётся на ИИ-нагрузки, ещё 38 ГВт — на традиционные задачи. К 2030 году суммарная мощность ЦОД достигнет 219 ГВт, в том числе 156 ГВт под нагрузки ИИ и 64 ГВт под прочие задачи. Таким образом, общая мощность дата-центров для приложений ИИ в период 2025–2030 гг. поднимется приблизительно в 3,5 раза.

Постоянный URL: http://servernews.ru/1122308

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus