Материалы по тегу: ии
07.05.2025 [09:05], Владимир Мироненко
IBM разработала инструменты для быстрого создания и интеграции ИИ-агентовIBM планирует укрепить свои позиции на быстрорастущем рынке ИИ-технологий с помощью увеличения инвестиций в США и предложения собственных инструментов, которые помогут клиентам управлять ИИ-агентами для их ключевых бизнес-приложений. Об этом сообщил генеральный директор IBM Арвинд Кришна (Arvind Krishna) в интервью агентству Reuters. Глава IBM заявил, что разработанное компанией ПО позволяет клиентам создавать собственные ИИ-системы, а также интегрировать ИИ-агентов от других провайдеров, включая Salesforce, Adobe и Workday. Это поможет удовлетворить потребность в кастомных решениях во многих областях бизнеса. Подход IBM заключается в том, чтобы предложить полный спектр облачных и ИИ-сервисов остальным компаниям, которые в настоящее время полагаются на лидеров рынка AWS и Microsoft. Особое внимание IBM уделяет внедрению функций ИИ в мультиоблачных платформах, что найдёт спрос среди тех, кому нужны кастомные ИИ-решения, а также в собственные инфраструктуры заказчиков для управления данными. ![]() Источник изображения: IBM По словам гендиректора IBM, предлагаемые инструменты, позволяющие создавать собственных ИИ-агентов в течение не более пяти минут, основаны на семействе LLM Granite, а также на альтернативных моделях от Meta✴ Platforms и Mistral. IBM сообщила, что уже получила заказы на создание решений на базе генеративного ИИ на $6 млрд. Также компания объявила в апреле о планах инвестировать в течение пяти лет $150 млрд в США, где она в течение более 60 лет производит мейнфреймы. Кришна подчеркнул, что квантовые компьютеры тоже будут производиться в США. Глава IBM отметил, что синергия мейнфреймов, ИИ и квантовых вычислений, как ожидается, создаст надёжный и устойчивый рынок, в который следует инвестировать и который позволит компании использовать эти достижения в течение следующего десятилетия. Кришна добавил, что фокус на технологии и сокращение регулирования со стороны администрации оказали благотворное влияние на экономику США, способствуя её росту. Это позволяет IBM наращивать инвестиции и инновации, тем самым потенциально укрепляя свою конкурентную позицию как поставщика бизнес-решений на основе ИИ.
06.05.2025 [21:12], Руслан Авдеев
Meta✴ Llama API задействует ИИ-ускорители Cerebras и GroqMeta✴ объединила усилия с Cerebras и Groq для инференс-сервиса с применением API Llama. Открыв API-доступ к собственным моделям, Meta✴ становится чуть более похожа на облачных провайдеров. Как утверждают в Cerebras, разработчики, применяющие API для работы с моделями Llama 4 Cerebras, могут получить скорость инференса до 18 раз выше, чем у традиционных решений на базе GPU. В компании объявили, что такое ускорение позволит использовать новейшее поколение приложений, которые невозможно построить на других ИИ-технологиях. Речь, например, идёт о «голосовых» решениях с низкой задержкой, интерактивной генерации кода, мгновенном многоэтапном рассуждении и т. п. — многие задачи можно решать за секунды, а не минуты. После запуска инференс-платформы в 2024 году Cerebras обеспечила для Llama самый быстрый инференс, обрабатывая миллиарды токенов через собственную ИИ-инфраструктуру. Теперь прямой доступ к альтернативам решений OpenAI получит широкое сообщество разработчиков. По словам компании, партнёрство Cerebras и Meta✴ позволит создавать ИИ-системы, «принципиально недосягаемые для ведущих облаков». Согласно замерам Artificial Analysis, Cerebras действительно предлагает самые быстрые решения для ИИ-инференса, более 2600 токенов/с для Llama 4 Scout. ![]() Источник изображения: Meta✴ При этом Cerebras не единственный партнёр Meta✴. Она также договорилась с Groq об использовании ускорителей Language Processing Units (LPU), которые обеспечивают высокую скорость (до 625 токенов/с), низкую задержку и хорошую масштабируемость при довольно низких издержках. Groq использует собственную вертикально интегрированную архитектуру, полностью контролируя и железо, и софт. Это позволяет добиться эффективности, недоступной в облаках на базе универсальных ИИ-чипов. Партнёрство с Meta✴ усиливает позиции Groq и Cerebras в борьбе с NVIDIA. Для Meta✴ новое сотрудничество — очередной шаг в деле выпуска готовых open source ИИ-моделей, которые позволят сосредоточиться на исследованиях и разработке, фактически передав инференс надёжному партнёру. Разработчики могут легко перейти на новый стек без необходимости дообучения моделей или перенастройки ускорителей — API Llama совместимы с API OpenAI. Пока что доступ к новым API ограничен. Цены Meta✴ также не сообщает. Meta✴ активно работает над продвижением своих ИИ-моделей. Так, она даже выступила с довольно необычной инициативой, предложив «коллегам-конкурентам» в лице Microsoft и Amazon, а также другим компаниям, поделиться ресурсами для развития и обучения моделей Llama.
06.05.2025 [17:46], Владимир Мироненко
Эксперты: репрессии Трампа в отношении «зелёной» энергетики навредят США в гонке за ИИ-лидерствоВступив в должность президента США, Дональд Трамп (Donald Trump) объявил самую настоящую войну «зелёной» энергетике. Одним из его первых распоряжений был указ о приостановке утверждения проектов в области чистой энергии на федеральных землях, пишет The Financial Times. Также было приостановлено выделение федеральных займов на проекты в этой сфере, а в апреле Бюро по управлению энергией океана (Bureau of Ocean Energy Management, BOEM) направило компании Empire Offshore Wind предписание на время проведения проверки приостановить строительство ветропарка Empire Wind стоимостью $2,5 млрд у восточного побережья США. По словам экспертов, отказ от возобновляемых источников энергии может привести к проблемам в электроснабжении технологических компаний, которые стремятся обеспечить надёжные поставки энергии для питания и обучения ИИ, что повлечёт за собой рост затрат и может подтолкнуть операторов к использованию более «грязной» энергии. В Hitachi Vantara заявили, что «антагонистический подход» администрации Трампа к возобновляемым источникам энергии может сделать «невозможным удовлетворение [потребностей в обработке] всё растущих объёмов данных». В компании отметили, что стратегически США рискуют подорвать свою текущую позицию лидера в глобальной гонке ИИ, в то время как Китай активно занимается модернизацией энергосетей и эффективным распределением энергии. Дефицит энергии может «привести к отмене или задержкам в строительстве ЦОД или модернизации инфраструктуры», предупредила Hitachi Vantara. ![]() Источник изображения: James Whately/unsplash.com Ранее администрация Трампа заявила, что проигрыш в ИИ-гонке Китаю представляет большую угрозу для мира, чем глобальное потепление, выступив за увеличение использования ископаемого топлива для питания ЦОД. В свою очередь, эксперты предупреждают, что будет сложно удовлетворить растущий спрос без добавления гораздо большего количества мощностей возобновляемой энергии, запустить которые можно быстрее и дешевле, чем строить газовые электростанции. Наступление Трампа на возобновляемые источники энергии обеспокоило ряд политиков, которые взяли курс на расширение использования ветроэнергетики для удовлетворения будущего спроса на электроэнергию. В минувший понедельник генеральные прокуроры 17 штатов подали в суд на администрацию Трампа в связи с её политикой по сворачиванию развития ветроэнергетики в США. Также политика запрета возобновляемых источников энергии усложняет задачу Equinix, Microsoft, Google и Meta✴ по компенсации выбросов и инвестированию в возобновляемые источники энергии. «Спрос [на возобновляемые источники энергии] достиг исторического максимума», — отметил Кристофер Уэллиз (Christopher Wellise), вице-президент по устойчивому развитию в Equinix, добавив, что в сочетании с ограничениями администрации Трампа это может вызвать проблемы с обеспечением энергией в среднесрочной перспективе.
06.05.2025 [14:36], Руслан Авдеев
«Билайн» готовит российский сервис ИИ-инференса на отечественном оборудовании«Билайн» и один из российских производителей серверов ведут переговоры о возможной доработке решений для ИИ-инференса — весьма перспективной в обозримом будущем услуги. Сама «Билайн» разрабатывает инфраструктурное ПО, входящее в часть специального программно-аппаратного комплекса, сообщают «Ведомости». На основе таких комплексов партнёры смогут развернуть ИИ-модели, а «Билайн» в перспективе сможет предлагать их в своих дата-центрах, продавая доступ к соответствующим мощностям бизнес-клиентам. По словам одного из источников, сейчас «Билайн» договаривается с OpenYard. Последняя подтвердила, что ведёт переговоры с рядом телеком-операторов, но подробности возможных сделок раскрывать не стала. Тем временем в «Билайне» отмечают рост спроса на аренду стоек с GPU-серверами. Правда, платить за это готовы «не все», отмечают в компании. По оценкам экспертов, сотрудничество «Билайн» с OpenYard позволит первой запустить новые сервисы, а для второй — получить крупного заказчика на оборудование. Для крупных компаний, как считают эксперты, такой совместный сервис будет обходиться в 100–200 млн руб. в год. Ожидается, что в первую очередь новое решение заинтересует банки (для создания чат-ботов и скоринга), IT-компании и просто крупный бизнес (для ИИ-аналитики), а также, например, телеком-операторов и промышленный сектор. Как ранее писали «Ведомости», к 2030 году в российских ЦОД будут развёрнуты ускорители, эквивалентные по производительности 70 тыс. ускорителей NVIDIA A100. Стоимость закупки, вероятно, составит $1,5–$2 млрд. Впрочем, уникальность инференс-решений для России — под вопросом. Например, в октябре прошлого года Selectel запустил бета-тестирование собственного инференс-сервиса для ускорения запуска ИИ-моделей. В конце апреля 2025 года Cloud.ru представил «первый в России» управляемый облачный сервис для инференса ИИ-моделей — Evolution ML Inference.
06.05.2025 [12:43], Андрей Крупин
Состоялся релиз отечественной «Ред ОС» 8 для Arm-платформКомпания «Ред Софт» сообщила о доступности установочных ISO-образов операционной системы «Ред ОС» 8 для устройств на базе процессоров с Arm-архитектурой. Программная платформа «Ред ОС» построена на базе ядра Linux, относится к классу операционных систем общего назначения и поставляется на рынок в конфигурациях «Рабочая станция» и «Сервер». Система может применяться для решения офисных задач, организации совместной работы, а также для развёртывания доменной инфраструктуры, файловых хранилищ, почтовых серверов и различных сервисов в составе корпоративной IT-среды. «Ред ОС» включена в реестр российского ПО как рекомендованная для закупки отечественными организациями и государственными структурами. В соответствии с лицензионным соглашением, физические лица могут использовать ОС бесплатно для личных целей. Поддержка «Ред ОС» восьмой версии будет обеспечиваться до 2028 года включительно. ![]() Пользовательский интерфейс «Ред ОС» (источник изображения: redos.red-soft.ru) Ожидается, что реализация поддержки процессоров на архитектуре Arm в «Ред ОС» 8 позволит отечественным организациям снизить зависимость от зарубежного аппаратного обеспечения и значительно расширит сценарии применения продукта. В частности, система может использоваться в качестве рабочего окружения для серверов и рабочих станций, а также входить в состав промышленных решений. Например, обеспечивать функционирование компонентов АСУ ТП. Работоспособность ОС уже подтверждена для российских процессоров «Байкал-М» и «Байкал-S». Также платформа демонстрирует стабильную и корректную работу на чипах серий Ampere Altra и Huawei Kunpeng. «Поддержка процессоров на базе архитектуры Arm позволит значительно расширить набор сценариев для работы с «Ред ОС» 8, а также сделать операционную систему доступнее для большего круга пользователей. Во-первых, мы закрываем потребности пользователей, ранее внедривших решения на базе архитектуры Arm и сейчас находящихся в поиске подходящей платформы. Во-вторых, мы расширяем возможности выбора аппаратных решений для российских компаний, планирующих и осуществляющих переход на отечественное ПО, включая операционную систему», — прокомментировал Рустам Рустамов, заместитель генерального директора «Ред Софт».
06.05.2025 [11:12], Сергей Карасёв
Nebius внедрит системы хранения DDN в свою ИИ-инфраструктуруКомпания DataDirect Networks (DDN), специализирующаяся на системах хранения данных для НРС, объявила о заключении партнёрского соглашения с разработчиком ИИ-решений Nebius (бывшая материнская структура «Яндекса»). В рамках соглашения стороны займутся созданием высокопроизводительной подсистемы хранения данных для ресурсоёмких ИИ-задач. Речь идёт об интеграции решений DDN Infinia и EXAScaler в облачную инфраструктуру Nebius AI Cloud. Эти системы будут использоваться для хранения данных, предназначенных для обучения больших языковых моделей, инференса и поддержания работы ИИ-приложений в реальном времени. По заявлениям DDN, Infinia гарантирует надёжность и передовую производительность, благодаря чему ускоряется обучение и развёртывание моделей ИИ. Вместе с тем EXAScaler обеспечивает высокую пропускную способность и согласованность операций ввода-вывода. Другим преимуществом названных решений является возможность масштабирования в рамках облачных и локальных развёртываний: заказчики смогут быстро наращивать ресурсы в ИИ-облаке Nebius, гибридных и изолированных средах, используя параллельную файловую систему EXAScaler. ![]() Источник изображения: Nebius Утверждается, что Infinia и EXAScaler устраняют проблемы с задержками при обработке данных. В результате, нагрузки ИИ могут обрабатываться с максимальной эффективностью — даже в случае моделей с несколькими триллионами параметров. В целом, как отмечают партнёры, благодаря интеграции систем DDN в облако Nebius клиенты смогут решать ИИ-задачи с более высокой скоростью и с меньшими временными и финансовыми затратами.
05.05.2025 [20:06], Владимир Мироненко
Google и Broadcom совместно обеспечат кибербезопасность своих решенийПоскольку мир становится всё более зависимым от цифровой инфраструктуры, кибербезопасность превратилась из вспомогательной функции в основополагающий элемент, пишет ресурс SiliconANGLE. Следовательно, она должна быть интегрирована на всех уровнях технологического стека — от оборудования до программного обеспечения, сетей и пользовательского опыта. Сотрудничество Google Cloud и Broadcom является наглядным подтверждением этого тезиса. Роберт Садовски (Robert Sadowski), директор по маркетингу продуктов, безопасности и доверию Google Cloud, и Джейсон Роллстон (Jason Rolleston), генеральный менеджер Enterprise Security Group компании Broadcom, в ходе общения на конференции RSAC 2025 рассказали, как Google Cloud и Broadcom объединяют тесную интеграцию, ИИ и десятилетия эволюции ПО для создания решений по кибербезопасности следующего поколения. ![]() Источник изображения: FlyD/unsplash.com Как пояснил Садовски, компания, разработавшая инновационные технологии для таких продуктов, как Google Search и Android, предлагает возможности своей платформы и решения по обеспечению безопасности предприятиям и партнёрам, таким как Broadcom, чтобы те могли создавать и внедрять инновации в собственные продукты. Аналогичным образом Google поступила с Cloud WAN — полностью управляемой корпоративной платформой для подключения к сетевой инфраструктуре Google. В свою очередь, Роллстон подчеркнул, что Google Cloud WAN — это не просто сетевой продукт, а защищённая, масштабируемая и глобально распределённая магистраль, которая позволяет Broadcom развёртывать решения по периметру служб безопасности в масштабе, обеспечивая низкую задержку, высокую производительность и последовательное применение политик в любой точке мира. По его словам, Broadcom использовала это решение для обнаружения и нейтрализации нисходящих угроз, распространяющихся в нижних звеньях цепочки распределения сети. Собеседники отметили, что хотя ИИ обеспечивает такие инновации, как предиктивная аналитика и обнаружение угроз в реальном времени, он также создаёт огромные объёмы данных и открывает новые векторы атак. Топ-менеджеры сообщили, что Google Cloud и Broadcom изначально интегрируют ИИ в функции безопасности своих продуктов. Это позволяет автоматизировать обнаружение, обеспечить расширенную веб-изоляцию и адаптивное применение политик без ущерба для производительности.
05.05.2025 [13:28], Сергей Карасёв
GigaIO и d-Matrix предоставят инференс-платформу для масштабных ИИ-развёртыванийКомпании GigaIO и d-Matrix объявили о стратегическом партнёрстве с целью создания «самого масштабируемого в мире» решения для инференса, ориентированного на крупные предприятия, которые разворачивают ИИ в большом масштабе. Ожидается, что новая платформа поможет устранить узкие места в плане производительности и упростить внедрение крупных ИИ-систем. В рамках сотрудничества осуществлена интеграция ИИ-ускорителей d-Matrix Corsair в состав НРС-платформы GigaIO SuperNODE. Архитектура Corsair основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости около 150 Тбайт/с. По заявлениям d-Matrix, ускоритель обеспечивает непревзойдённую производительность и эффективность инференса для генеративного ИИ. Устройство выполнено в виде карты расширения с интерфейсом PCIe 5.0 х16. Быстродействие достигает 2,4 Пфлопс с (8-бит вычисления). Изделие имеет двухслотовое исполнение, а показатель TDP равен 600 Вт. В свою очередь, SuperNODE использует фирменную архитектуру FabreX на базе PCIe, которая позволяет объединять различные компоненты, включая GPU, FPGA и пулы памяти. По сравнению с обычными серверными кластерами SuperNODE обеспечивает более эффективное использование ресурсов. ![]() Источник изображения: d-Matrix Новая модификация SuperNODE поддерживает десятки ускорителей Corsair в одном узле. Производительность составляет до 30 тыс. токенов в секунду при времени обработки 2 мс на токен для таких моделей, как Llama3 70B. По сравнению с решениями на базе GPU обещаны трёхкратное повышение энергоэффективности и в три раза более высокое быстродействие при сопоставимой стоимости владения. «Наша система избавляет от необходимости создания сложных многоузловых конфигураций и упрощает развёртывание, позволяя предприятиям быстро адаптироваться к меняющимся рабочим нагрузкам ИИ, при этом значительно улучшая совокупную стоимость владения и операционную эффективность», — говорит Alan Benjamin (Алан Бенджамин), генеральный директор GigaIO.
05.05.2025 [12:47], Сергей Карасёв
Терабитное облако: Backblaze запустила S3-хранилище B2 Overdrive для рабочих нагрузок ИИ и HPCАмериканская компания Backblaze анонсировала облачное S3-хранилище B2 Overdrive, оптимизированное для нагрузок с интенсивным обменом данными, таких как задачи ИИ и НРС. Утверждается, что платформа в плане соотношения производительности/цены значительно превосходит предложения конкурентов. Backblaze отмечает, что при работе с ресурсоёмкими приложениями ИИ, машинного обучения, доставки контента или аналитики, клиенты зачастую сталкиваются с выбором: платить больше за максимальную скорость доступа к облаку или жертвовать производительностью, чтобы сохранить расходы на приемлемом уровне. B2 Overdrive, как утверждается, решает эту проблему. Новый сервис обеспечивает пропускную способность до 1 Тбит/с, а цена начинается с $15 за 1 Тбайт в месяц. Минимальный заказ — несколько Пбайт. Заявленный показатель безотказного функционирования — 99,9 %. Предоставляется бесплатный вывод данных из облака в трехкратном среднем ежемесячном объёме хранения клиента. После превышения этого значения стоимость составляет $0,01 за 1 Гбайт. Скидки за объём и сроки хранения доступны с сервисом B2 Reserve. Для хранения данных в облаке B2 Overdrive применяются HDD. Подключение к инфраструктуре клиента осуществляется через защищённую частную сеть. Информацию в экзабайтном масштабе можно свободно перемещать в любой кластер GPU или HPC с неограниченным бесплатным выводом. Среди прочих преимуществ B2 Overdrive компания Backblaze выделяет отсутствие требований к минимальному размеру файлов, уведомления о событиях, а также бесплатное удаление информации. Приём заявок на подключение к сервису уже начался.
05.05.2025 [12:38], Сергей Карасёв
McKinsey: инвестиции в ИИ ЦОД к 2030 году превысят $5 трлнКонсалтинговая компания McKinsey обнародовала прогноз по развитию дата-центров в глобальном масштабе до 2030 года. Аналитики отмечают, что ключевым драйвером отрасли будет оставаться ИИ, а операторы ЦОД и гиперскейлеры продолжат активно наращивать мощности. В общей сложности, как ожидается, капиталовложения в дата-центры по всему миру к концу десятилетия достигнут $6,7 трлн. Из этой суммы, полагают специалисты McKinsey, примерно $5,2 трлн будет потрачено на объекты, оптимизированные для задач ИИ, а оставшиеся $1,5 трлн — на ЦОД, рассчитанные на традиционные рабочие нагрузки. Если прогноз McKinsey оправдается, то в ИИ-сегменте из общей суммы в $5,2 трлн на строительные работы пойдёт приблизительно 15 %, или $800 млрд: это средства на землю, материалы и возведение необходимых сооружений. Ещё около 25 %, или $1,3 трлн, составят затраты, связанные с поставками и использованием энергии, включая электрическую инфраструктуру (трансформаторы, генераторы) и системы охлаждения. Оставшиеся 60 %, или $3,1 трлн, будут направлены на закупки необходимого IT-оборудования и систем, в том числе серверов, GPU-ускорителей, стоечных решений и пр. Вместе с инвестициями будут расти и мощности дата-центров. В 2025 году общемировой показатель, по данным McKinsey, окажется на уровне 82 ГВт, из которых 44 ГВт придётся на ИИ-нагрузки, ещё 38 ГВт — на традиционные задачи. К 2030 году суммарная мощность ЦОД достигнет 219 ГВт, в том числе 156 ГВт под нагрузки ИИ и 64 ГВт под прочие задачи. Таким образом, общая мощность дата-центров для приложений ИИ в период 2025–2030 гг. поднимется приблизительно в 3,5 раза. |
|