Материалы по тегу: оркестрация

01.05.2025 [19:15], Андрей Крупин

Новое поколение платформы Beeline Cloud 2.0 дополнилось функцией интеллектуальной оркестрации гибридного облака

Компания «Вымпелком», предоставляющая услуги под брендом «Билайн», анонсировала релиз нового поколения облачной платформы Beeline Cloud 2.0 для корпоративного сегмента.

Ключевой особенностью Beeline Cloud 2.0 является интеллектуальный оркестратор Vega собственной разработки, обеспечивающий управление гибридной IT-инфраструктурой и объединяющий различные среды виртуализации (OpenStack, VMware и другие) в единый управляемый комплекс. По заверениям команды «Вымпелкома», нововведение позволяет максимально эффективно использовать вычислительные ресурсы дата-центра, одновременно предоставляя облачные сервисы в формате, доступном не только IT-инженерам, но и продуктовым командам, архитекторам и разработчикам ПО с поддержкой методологии CI/CD (Continuous Integration/Continuous Delivery).

Будучи комплексным решением, Beeline Cloud 2.0 предоставляет множество функциональных возможностей. В их числе: единое управление мультивиртуализацией через Vega-оркестратор; доступ к IaaS и PaaS (виртуальные машины, базы данных, Kubernetes, DevOps-инструменты и др.); оптимизация инфраструктурных ресурсов и снижение затрат; быстрый запуск и масштабирование продуктов через инструменты самообслуживания; готовность к внедрению генеративных ИИ-систем и современных подходов к разработке; кибербезопасность корпоративного уровня с соблюдением российских стандартов.

 Источник изображения: cloud.beeline.ru

Источник изображения: cloud.beeline.ru

«Изначально Vega создавался внутри «Вымпелкома» как оркестратор для трансформации корпоративного IT-ландшафта в соответствии с концепцией «всё как код» — архитектурного подхода, при котором инфраструктура, конфигурации и приложения описываются и управляются через код. Такой подход стал основой подготовки к масштабному внедрению GenAI, поскольку генеративные модели требуют предсказуемой автоматизированной и масштабируемой среды», — поясняют в компании.

На текущий момент Beeline Cloud 2.0 находится в стадии закрытого тестирования и проходит финальную настройку. В ближайшем будущем «Вымпелком» планирует запустить платформу в коммерческую эксплуатацию и предоставить клиентам доступ к полноценному облачному стеку, построенному по самым современным принципам.

Постоянный URL: http://servernews.ru/1122136
23.04.2025 [16:15], Руслан Авдеев

GPU под роспись: Amazon резко ужесточила использование дефицитных ИИ-ускорителей внутри компании в рамках Project Greenland

В прошлом году ретейл-бизнес Amazon столкнулся с острой нехваткой ИИ-ускорителей для внутреннего пользования. Это привело к задержкам при реализации ключевых проектов. На фоне глобального бума ИИ-технологий и дефицита чипов NVIDIA компания вынужденно пересмотрела принципы доступа к ускорителям для собственных нужд, сообщает Business Insider.

В июле 2024 года началась реализация т. н. Project Greenland. Фактически речь идёт о платформе для централизованного распределения ресурсов ускорителей. Платформа позволяет отслеживать их использование, перераспределяет мощности в случае простоя и даёт возможность оперативно реагировать на изменения спроса. Теперь все заявки на доступ к ускорителям подаются только через Greenland, а приоритет получают проекты с высоким уровнем возврата инвестиций (ROI), чётким графиком и заметным влиянием на снижение затрат или рост выручки. У проектов с низкой эффективностью доступ к вычислительным мощностям могут вообще отозвать в пользу более перспективных инициатив.

Amazon выделила восемь принципов распределения ускорителей среди сотрудников компании:

  1. «ROI + здравый смысл»: ускорители будут выделяться по уровню возврата инвестиций и обоснованности проектов, а не по очереди. Все ресурсы должны способствовать росту денежного потока;
  2. Постоянное совершенствование: подход пересматривается по мере накопления нового опыта;
  3. Нужно избегать изолированных решений: все инициативы, связанные с ускорителями, должны централизованно отслеживаться и координироваться;
  4. Экономя времени: масштабируемые инструменты — ключ к быстрому принятию решений, что, в свою очередь, высвобождает время для инноваций;
  5. Повышение эффективности: оптимизация использования ускорителей содействует сотрудничеству и совместному использованию ресурсов;
  6. Ради инноваций иногда можно рисковать: допустимый уровень риска необходим для поддержания разработок и исследований;
  7. Прозрачность и конфиденциальность: методология распределения ускорителей должна быть понятна и доступна всем внутри компании, но конфиденциальне данные о конкретных проектах остаются закрытыми;
  8. Возможность отзыва ускорителей: в случае необходимости их могут изъять для более ценных проектов.
 Источник изображения: Centre for Ageing Better/unsplash.com

Источник изображения: Centre for Ageing Better/unsplash.com

Amazon уже активно использует искусственный интеллект в различных проектах. В числе ключевых инициатив:

  • Помощник для покупок Rufus;
  • Генератор изображений товаров Theia;
  • Система компьютерного зрения VAPR для ускоренной сортировки посылок;
  • ИИ-модель для оптимизации маршрутов и доставок;
  • ИИ-поддержка для обработки возвратов;
  • Автоматизация расследований мошеннических действий и проверки документов.

По оценкам Amazon, ИИ-проекты розничного подразделения в 2024 году принесли $2,5 млрд операционной прибыли, попутно сэкономив $670 млн. В 2025 году ретейл-подразделение Amazon намерено вложить $1 млрд в ИИ-проекты розничного сегмента и увеличить расходы на облако AWS до $5,7 млрд (с $4,5 млрд в 2024 году).

Если во II полугодии 2024 года розница Amazon нуждалась в более 1 тыс. дополнительных инстансов P5 с NVIDIA H100, то в 2025 году ситуация, как свидетельствуют внутренние прогнозы, должна стабилизироваться. А к концу года внутренние запросы полностью удовлетворят с помощью чипов собственной разработки Amazon Tranium, «но не раньше». Тем не менее, в Amazon не теряют бдительности, постоянно задаваясь вопросом: «Как получить больше ускорителей?».

Постоянный URL: http://servernews.ru/1121719
04.04.2025 [12:37], Руслан Авдеев

«Агрегатор ускорителей» Parasail анонсировал ИИ-гипероблако

Стартап Parasail привлёк $10 млн стартового капитала и выступил с необычным для рынка ИИ предложением. Компания стала своеобразным «агрегатором ускорителей», создав для инференса сеть, позволяющую свести вместе владельцев вычислительных мощностей и их клиентов с максимальной простотой, сообщает The Next Platform.

Раунд финансирования возглавили Basis Set Ventures, Threshold Ventures, Buckley Ventures и Black Opal Ventures. Компанию основали Майк Генри (Mike Henry), ранее основавший производителя ИИ-решений Mythic и работавший одним из топ-менеджеров в Groq, и Тим Харрис (Tim Harris), генеральный директор Swift Navigation.

Прежний опыт Майка Генри на рынке IT позволил заметить, что в последнее время ландшафт облачных сервисов стремительно меняется — если ранее на нём безраздельно доминировали гиперскейлеры вроде AWS, Microsoft Azure и Google Cloud, то с приходом ИИ они, казалось бы, сохраняют ведущие позиции, но на сцену выходят и новые облачные игроки, чья инфраструктура изначально рассчитана на ИИ-задачи, от обучения до инференса.

В конце 2023 года бизнесмены основали компанию Parasail, которая совсем недавно заявила о себе, заодно собрав $10 млн финансирования. Фактически бизнес рассчитан на клиентов, которые заинтересованы в простом доступе к ИИ-технологиям — он будет связывать тех, кто располагает ими, и тех, кто в них нуждается.

 Источник изображения:  Campaign Creators/unsplash.com

Источник изображения: Campaign Creators/unsplash.com

Parasail намеревается использовать рост облачных ИИ-провайдеров вроде CoreWeave (недавно вышедшей на IPO) и Lambda Labs. Для этого создана сеть AI Deployment Network, объединяющая их вычислительные ресурсы в единую инфраструктуру, которая масштабнее, чем Oracle Cloud Infrastructure (OCI). Компания применяет собственный «движок» для оркестрации процессов в этом гипероблаке.

Ключевым преимуществом является низкая стоимость услуг — утверждается, что компании, желающие отказаться от сервисов вроде OpenAI и Anthropic, могут рассчитывать на экономию в 15–30 раз, а в сравнении с клиентами провайдеров open source моделей — в 2–5 раз. На настройку уходит несколько часов, а инференс после этого можно начать за считанные минуты. Сегодня Parasail предлагает в облаке ресурсы NVIDIA H200, H100 и A100, а также видеокарт NVIDIA GeForce RTX 4090. Цены составляют от $0,65 до $3,25 за час использования.

Parasail столкнулась с проблемой несовместимости инфраструктур: разные облачные платформы используют уникальные подходы к вычислениям, хранению данных, сетевому взаимодействию, а также имеют различия в настройке, биллинге и автоматизации. Хотя Kubernetes и контейнеризация могли бы частично решить эти проблемы, их реализация у разных провайдеров сильно отличается, а Kubernetes изначально не предназначается для работы с несколькими кластерами, регионами или провайдерами одновременно.

Чтобы обойти ограничения, Parasail разработала собственную систему, которая объединяет ускорители из разных облаков в единую глобальную сеть. Их решение позволяет централизованно управлять распределёнными узлами, игнорируя различия в инфраструктуре провайдеров. Если один облачный провайдер выйдет из строя, система автоматически заменяет его ресурсы другими, минимизируя простои. Дополняя эту систему автоматизированным динамическим выделением ускорителей, Parasail создаёт масштабируемую и эффективную глобальную инфраструктуру, способную оперативно адаптироваться к нагрузкам и сбоям.

Оркестрация и оптимизация рабочих нагрузок в ИИ-инфраструктуре усложняются из-за огромного разнообразия моделей, архитектур, типов GPU и ASIC, а также множества способов их комбинирования. Parasail решает эту проблему с помощью гибридного подхода, сочетающего математическое моделирование, ИИ-алгоритмы и участие живых специалистов, что позволяет эффективно масштабироваться даже с небольшой командой.

 Источник изображения: Campaign Creators/unsplash.com

Источник изображения: Campaign Creators/unsplash.com

Закрытое бета-тестирование началось в январе, а позже спрос только вырос до той степени, что Parasail достигла семизначного ежегодного регулярного дохода (ARR). Теперь технология доступна всем, в числе клиентов — производитель чипов SambaNova, ИИ-платформа Oumi, ИИ-стартап Rasa и Elicit, позволяющий автоматизировать научные изыскания.

В будущем стартап намерен быстро расширить штат из 12 работников, рассматриваются и варианты добавления в портфолио новых доступных ускорителей — сейчас там безусловно лидирует NVIDIA, но рынок вполне может измениться.

В то же время отмечается парадоксальная ситуация, когда на рынке наблюдается и дефицит ускорителей, и простой мощностей в некоторых ЦОД одновременно. Предполагается, что дело в плохой оптимизации процессов на рынке ИИ. При этом в компании отмечают, что в данное время спрос на ИИ-приложения «почти бесконечен» и главная проблема — эффективно их использовать. Платформа Parasail для инференса максимально упрощает масштабное внедрение ИИ.

Постоянный URL: http://servernews.ru/1120787
21.03.2025 [19:13], Руслан Авдеев

Стартап Nerdio, развивающий систему управления VDI в Microsoft Azure, привлёк $500 млн, а его капитализация выросла до $1 млрд

Стартап Nerdio Inc., обеспечивающий компаниям работу с виртуальными рабочими столами в облаке Microsoft Azure, привлёк $500 млн новых инвестиций в раунде серии C. Капитализация разработчика ПО достигла $1 млрд, что в четыре раза больше, чем два года назад, сообщает Silicon Angle. Продукты Nerdio используют 15 тыс. организаций, в 2022 году речь шла о 5 тыс. Среди клиентов — Comcast, PayPal и другие крупные компании.

Платформа доступна в Azure Marketplace. В Nerdio утверждают, что это позволит избежать долгих процедур, сопровождающих корпоративные закупки ПО. Платформа может работать напрямую в облачных средах клиентов, что помогает повысить уровень безопасности. Платформа интегрирована в два VDI-сервиса Azure: AVD (Azure Virtual Desktop) и Windows 365.

Nerdio обещает упростить процесс создания виртуальных рабочих столов. По данным компании, в некоторых случаях первоначальная настройка и развёртывание занимают недели. Платформа компании ускоряет процесс в отдельных случаях на 80 %. Платформа включает инструменты, которые упрощают выявление проблем с производительностью виртуальных рабочих столов, а также отключают аккаунты, демонстрирующие потенциально вредоносное поведение.

 Источник изображения: Nerdio

Источник изображения: Nerdio

Встроенный инструмент автоматического масштабирования поможет снизить использование инфраструктуры. Эта функция позволяет автоматически назначить оборудование для выполнения задач в том объёме, в котором это действительно необходимо. В компании считают, что её ПО может снизить стоимость вычислений и хранения данных на 80 % при лучшем сценарии.

Компания сохранила прибыльность и, как сообщает её пресс-служба, расширила присутствие в регионах EMEA и APAC. Теперь она намерена использовать полученные средства, чтобы нанять новых разработчиков для расширения функциональности платформы.

Постоянный URL: http://servernews.ru/1120125
23.01.2025 [20:21], Владимир Мироненко

Стартап Render, готовый бросить вызов традиционным облакам, привлёк $80 млн на развитие своей платформы для разработчиков

Стартап Render Services объявил о привлечении $80 млн инвестиций в рамках раунда финансирования серии C, доведя общий объём финансирования до $157 млн. Раунд возглавила Georgian. Также в нём приняли участие 01A, Avra наряду с существующими инвесторами Addition, Bessemer Venture Partners, General Catalyst и South Park Commons Fund. Также стартап сообщил о том, что количество разработчиков, использующих его платформу, превысило 2 млн.

Как утверждает Render, с помощью его платформы разработчикам гораздо проще запускать приложения, сервисы и веб-сайты в облачной инфраструктуре по сравнению с традиционными платформами, такими как AWS. Платформа Render устраняет необходимость для разработчиков разбираться со сложными конфигурациями и настройками облачных инфраструктур. Она автоматизирует рутинные задачи по управлению инфраструктурой, позволяя разработчикам сосредоточиться исключительно на своих приложениях. Разработчикам достаточно подключить свой репозиторий GitHub или GitLab, и платформа тут же предложит команды для развёртывания приложения.

 Источник изображения: Render

Источник изображения: Render

Основатель и гендиректор Render Анураг Гоэл (Anurag Goel) сообщил SiliconANGLE, что платформа компании гибче, чем традиционные бессерверные решения, и способна поддерживать гораздо более полный набор рабочих нагрузок, в том числе выполняющихся очень долго. Он отметил, что многие клиенты переходят на платформу Render с других платформ, потому что им нужно использовать LLM API и веб-сокеты, а традиционные FaaS и бессерверные решения не отвечают их потребностям.

В числе преимуществ Render Гоэл назвал более быстрое развёртывание и возможность простого масштабирования. Render автоматизирует необходимую подготовку инфраструктуры, не заставляя разработчиков возиться с настройкой Kubernetes или других сред, говорит глава стартапа. Также у платформы Render ниже стоимость владения по сравнению с конкурентами.

Хольгер Мюллер (Holger Mueller) из Constellation Research отметил, что Render облегчает работу разработчиков, поскольку большинство публичных облаков стали невероятно сложными в управлении и эксплуатации. «Управление инфраструктурой отнимает у разработчиков много времени и ресурсов, поэтому приятно видеть альтернативу, такую как Render, которая справляется с этим», — заявил аналитик.

Постоянный URL: http://servernews.ru/1117177
23.12.2024 [20:05], Сергей Карасёв

Selectel и «Лаборатория Числитель» будут вместе развивать гибридные облачные среды

Российский разработчик ПО «Лаборатория Числитель» объявил об успешной интеграции CMP-платформы для управления частными и гибридными облаками «Нимбиус» с облачной платформой компании Selectel, крупнейшего независимого провайдера сервисов ИТ-инфраструктуры в России.

Согласно исследованию Selectel, 55 % российских компаний предпочитают строить ИТ-инфраструктуру на базе гибридных облачных решений, совмещая ресурсы собственных серверов и облако провайдера. Такой подход позволяет сократить время запуска сервисов, оптимизировать затраты и увеличить отказоустойчивость ИТ-инфраструктуры.

CMP-платформа (Cloud Management Platform, платформа управления облаками) «Нимбиус» позволяет централизованно управлять ИТ-ресурсами как в on-premise средах, так и в публичных облаках, а также автоматизировать предоставление готовых ИТ-сервисов под проекты и разработку. Тесты, проведённые командой «Лаборатории Числитель», подтвердили, что облачная платформа Selectel успешно подключается к платформе «Нимбиус», а пользовательские данные корректно синхронизируются. В результате интеграции пользователи продукта получают доступ к управлению внешними облачными ресурсами и локальной ИТ-инфраструктурой в режиме одного окна.

Облачная платформа Selectel — это управляемое публичное облако для высоконагруженных проектов. Пользователи могут использовать вычислительные ресурсы платформы, а также подключать сопутствующие инфраструктурные, платформенные и сетевые сервисы. Облачные ресурсы предоставляются на базе собственных дата-центров Selectel в Москве, Санкт-Петербурге, Ленинградской области, а также партнёрского ЦОД в Новосибирске. Облачная платформа построена на базе компонентов с открытым кодом и постоянно дорабатывается специалистами компании. Облачная платформа Selectel позволяет хранить и обрабатывать персональные данные до первого (высочайшего) уровня защищенности в соответствии с 152-ФЗ.

 Источник изображения: Selectel

Источник изображения: Selectel

«Со стороны наших заказчиков мы видим растущий спрос на использование облачных платформ российского производства. Интеграция с облаком Selectel даёт возможность пользователям заказывать и управлять из единого окна своими ИТ-ресурсами как в публичных облаках, так и on-premise инфраструктурах. В ближайшее время наша платформа будет поддерживать решения всех крупных игроков на рынке облачных провайдеров», — комментирует Александр Александров, руководитель платформы «Нимбиус», «Лаборатория Числитель».

«За 10 лет разработки облачной платформы мы накопили уникальную экспертизу в создании надёжных и масштабируемых сервисов для задач любой сложности. Особое внимание мы уделяем бесшовной интеграции наших решений с инфраструктурой клиентов — будь это собственные площадки или российские облака. Сотрудничество с "Лабораторией Числитель" — это новый шаг в направлении поддержки клиентов в создании гибридной инфраструктуры, которая сочетает лучшее из нескольких подходов и адаптируется под потребности каждого бизнеса», — отмечает Константин Ансимов, директор по продуктам Selectel.

Постоянный URL: http://servernews.ru/1115824
21.12.2024 [14:00], Сергей Карасёв

Еврокомиссия разрешила NVIDIA купить израильский стартап Run:ai

Европейская комиссия одобрила сделку по приобретению компанией NVIDIA стартапа Run:ai из Тель-Авива (Израиль), который специализируется на разработке ПО для управления рабочими нагрузками ИИ и оркестрации на базе Kubernetes. Регуляторы пришли к выводу, что слияние не создаст проблем с конкуренцией в Европейской экономической зоне.

Стартап Run:ai основан в 2018 году. В марте 2022-го он получил $75 млн в ходе раунда финансирования Series C. Компания создаёт специализированные инструменты, которые позволяют более эффективно использовать вычислительные ресурсы при работе с ИИ-приложениями.

NVIDIA объявила о планах по поглощению Run:ai в апреле нынешнего года. Тогда говорилось, что стоимость сделки может составлять до $1 млрд. Вместе с тем израильская газета Calcalist оценила актив в $700 млн. Изучением возможных последствий слияния занялись регулирующие органы в США и Европе. В частности, американское Министерство юстиции заподозрило, что NVIDIA покупает Run:ai с тем, чтобы в дальнейшем «похоронить» технологии этого стартапа. Дело в том, что платформа Run:ai позволяет уменьшить потребность в вычислительных ресурсах при работе с ИИ, а следовательно, снизить количество необходимых ускорителей. Это может привести к тому, что некоторые клиенты станут покупать меньше продуктов NVIDIA.

 Источник изображения: Run:ai

Источник изображения: Run:ai

Еврокомиссия дала сделке зелёный свет. В официальном заявлении регулятора сказано, что деятельность NVIDIA и Run:ai не пересекается. Подчёркивается, что NVIDIA занимает доминирующее положение на мировом рынке GPU. Однако у этой компании не будет «ни технических возможностей, ни стимулов для того, чтобы препятствовать совместимости своих GPU с конкурирующим ПО для оркестрации». Кроме того, как отмечается, Run:ai сейчас «не занимает существенной позиции» на рассматриваемом рынке ПО. Клиенты по-прежнему будут иметь доступ к альтернативным продуктам с функциями, аналогичными тем, что предлагает Run:ai.

«Комиссия пришла к выводу, что предлагаемое приобретение не вызовет проблем с конкуренцией ни на одном из рассмотренных рынков в Европейской экономической зоне. Поэтому сделка безоговорочно одобрена», — сказано в заявлении регулятора.

Постоянный URL: http://servernews.ru/1115756
29.08.2024 [11:53], Руслан Авдеев

Проект OpenTofu заблокировал доступ с российских IP и удалил плагины для работы с облаками Cloud.ru, Yandex Cloud и Rustack Cloud Platform

Проект OpenTofu, развивающий открытый форк платформы управления внешними ресурсами и автоматизации инфраструктуры Terraform и действующий под патронажем Linux Foundation, пошёл на неожиданный шаг. По данным OpenNET, заблокирован доступ к его репозиторию с российских IP-адресов. Параллельно из базы исключены плагины для взаимодействия с облачными сервисами и управления их ресурсами для отечественных провайдеров Cloud.ru, Yandex Cloud и Rustack Cloud Platform.

Речь идёт о репозитории OpenTofu — registry.opentofu.org. Решение о блокировке принято единогласно, голосами пяти членов управляющего совета проекта. Утверждается, что на такие меры пришлось пойти, поскольку структура находится в юрисдикции США и обязана соблюдать американские санкции — иначе могли возникнуть проблемы у компании, ответственной за хостинг репозитория.

 Источник изображения: LARAM/unsplash.com

Источник изображения: LARAM/unsplash.com

Причиной удаления плагинов названы новые правила проекта. По данным СМИ, новые правила на запрос журналистов так и не показали, сославшись на решение заблокировать доступ с российских IP — какое отношение это имеет к удалению поддержки провайдеров, вразумительного ответа не поступило. Один из запросов на отмену удаления плагинов уже достоверно отклонён, о судьбе последующих пока неизвестно.

По имеющимся данным, законы Соединённых Штатов, регулирующие экспорт, в числе прочего блокируют законную возможность предоставлять для находящимся в санкционных списках компаниям коммерческие услуги, либо сервисы, которые можно использовать в коммерческих целях.

Ранее считалось, что однозначной трактовки американских законов нет. Так, проведённый в своё время Apache Software Foundation, Linux Foundation и GitHub юридический анализ показал, что экспортные ограничения не могут распространяться на открытое программное обеспечение, как и на публичные репозитории, пишет OpenNET.

Постоянный URL: http://servernews.ru/1110176
18.07.2024 [18:23], Руслан Авдеев

Четвёртый за год: NVIDIA приобрела ещё один облачный стартап — Brev.dev

NVIDIA приобрела стартап, помогающий ИИ-разработчикам найти среди предложений облачных провайдеров наиболее подходящий по соотношению цена/качество доступ к ускорителям. Как сообщает портал CRN, это уже четвёртая заметная покупка NVIDIA с начала года. Представитель NVIDIA подтвердил, что сделка по приобретению Brev.dev действительно состоялась, но сумму и условия сделки не сообщил.

Brev.dev предоставляет платформу для создания, обучения и внедрения ИИ-моделей в облаках. Целью Brev.dev, по словам самого стартапа, является поиск простейшего способа использования ускорителей для разработчиков систем ИИ и машинного обучения. Сотрудничество с NVIDIA обеспечит выполнение этой миссии, с комбинацией максимально возможно производительной аппаратной составляющей с самым передовым программным обеспечением.

На сайте Brev.dev официальными партнёрами стартапа названы NVIDIA, Intel и AWS. Там же говорится, что платформа служит единым интерфейсом для взаимодействия AWS, Google Cloud Platform, Fluidstack и прочими облаками с ИИ-ускорителями. Это позволяет разработчикам искать подходящие инстансы на основе их цены и доступности. Хотя NVIDIA поставляет GPU и ИИ-ускорители облачным провайдерам более десяти лет, в последние годы компания уделяет немало внимания расширению собственного бизнеса в сфере облачных инфраструктур.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В прошлом году компания запустила сервис DGX Cloud, который развёрнут в облачной инфраструктуре других провайдеров и на собственных мощностях и ИИ-суперкомпьютерах. Ранее в этом году NVIDIA купила ещё два стартапа для развития возможностей DGX Cloud. В конце апреля компания анонсировала покупку израильского стартапа Run:ai, занимающегося решениями для оркестрации ИИ-инфраструктур. Его планируется интегрировать в DGX Cloud, а также с DGX- и HGX-серверами. По имеющимся данным, покупка Run:ai обошлась в $700 млн.

Практически одновременно с Run:ai компания приобрела ещё один израильский стартап — Deci, предлагающий ПО, способное на любом железе ускорить инференс ИИ-моделей, сохраняя точность данных. Сделку, по слухам, оценили приблизительно в $300 млн. Наконец, месяц назад NVIDIA купила калифорнийский стартап Shoreline.io, основанный бывшим управленцем AWS — компания разрабатывает ПО для автоматического устранения проблем в инфраструктуре ЦОД. По некоторым данным, команда Shoreline присоединилась к DGX Cloud, а покупка обошлась в $100 млн.

Постоянный URL: http://servernews.ru/1108145
24.04.2024 [23:45], Владимир Мироненко

NVIDIA приобрела за $700 млн платформу оркестрации ИИ-нагрузок Run:ai

Компания NVIDIA объявила о приобретении стартапа Run:ai из Тель-Авива (Израиль), занимающегося разработкой ПО для управления рабочими нагрузками и оркестрации на базе Kubernetes, которое позволяет более эффективно использовать вычислительные ресурсы при работе с ИИ-приложениями.

Стоимость сделки не раскрывается. По данным TechCrunch, покупка обошлась NVIDIA в $700 млн. Это одно из крупнейших приобретений Nvidia с момента покупки Mellanox за $6,9 млрд в марте 2019 года. Два года назад NVIDIA купила Bright Computing, разработчика решений для управления НРС-кластерами.

NVIDIA отметила, что развёртывание ИИ-приложениЙ становится всё более сложным. Оркестрация генеративного ИИ, рекомендательных и поисковых систем, а также других рабочих нагрузок требует сложного планирования для оптимизации производительности. ПО Run:ai позволяет управлять и оптимизировать вычислительную инфраструктуру как локально, так и в облаке или в гибридных средах.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Созданная стартапом открытая платформа поддерживает все популярные варианты Kubernetes и интегрируется со сторонними инструментами и платформами ИИ. Компании из различных отраслей используют платформу Run:ai для управления кластерами ускорителей в масштабе ЦОД.

Как сообщается, на относительно раннем этапе деятельности Run:ai удалось создать большую клиентскую базу из компаний из списка Fortune 500, что позволило привлечь венчурные инвестиции. Перед сделкой Run:ai привлекла капитал в размере $118 млн от ряда инвесторов, включая Insight Partners, Tiger Global, S Capital и TLV Partners.

NVIDIA заявила, что в ближайшем будущем продолжит предлагать продукты Run:ai в рамках той же бизнес-модели, а также продолжит инвестировать в развитие Run:ai в рамках платформы NVIDIA DGX Cloud, предоставляющей корпоративным клиентам доступ к вычислительной инфраструктуре и ПО для обучения моделей генеративного и других форм ИИ.

Решения Run:ai уже интегрированы с NVIDIA DGX, NVIDIA DGX SuperPOD, NVIDIA Base Command, контейнерами NGC, ПО NVIDIA AI Enterprise и другими продуктами. По словам NVIDIA, пользователи серверов и рабочих станций NVIDIA DGX, а также DGX Cloud также получат доступ к возможностям Run:ai, что особенно полезно при развёртывании генеративного ИИ в нескольких ЦОД.

Постоянный URL: http://servernews.ru/1103807
Система Orphus