Материалы по тегу: облако

10.04.2025 [13:27], Владимир Мироненко

Cloud.ru готовит решение полного цикла для работы с ИИ в облаке

Провайдер облачных и ИИ-технологий Cloud.ru анонсировал Cloud.ru Evolution AI Factory, цифровую среду для разработки приложений и агентов на основе ИИ в облаке, которая объединяет облачные ИИ- и ML-инструменты для работы с генеративными нейросетями и управления жизненным циклом ИИ-приложений. Это универсальная среда с широким спектром возможностей: от обучения моделей до запуска мультиагентных систем.

С помощью Cloud.ru Evolution AI Factory компании смогут создавать собственные ИИ-приложения по предлагаемым готовым шаблонам или работать с кастомизированными ИИ-моделями. Благодаря удобному набору технологий и встроенных ассистентов с решением можно работать даже без специальных навыков. Использование Cloud.ru Evolution AI Factory позволит компаниям значительно снизить затраты на вычислительную инфраструктуру, повысить эффективность работы и сократить сроки вывода новых продуктов на рынок.

Как сообщил глава Cloud.ru, решение будет доступно клиентам этим летом с полностью готовой инфраструктурой, сервисами и продуктами для простого и быстрого создания ИИ-приложений. Платформа включает:

  • Сервис Foundation Models, обеспечивающий быстрый и удобный доступ в российском облаке к таким популярным моделям, включая GigaChat, DeepSeek, Qwen и Gemma. Он позволит разработчикам адаптировать ИИ-модели под свои задачи, проверять гипотезы и проводить эксперименты без необходимости в запуске сложной инфраструктуры. В состав сервиса также входит AI Playground — среда для быстрого прототипирования, проверки гипотез и тестирования моделей на практике.
  • Evolution ML Inference — сервис для запуска моделей из библиотеки Hugging Face на облачных мощностях с ускорителями, в том числе в пользовательских Docker-образах. Он поддерживает среды исполнения vLLM, TGI, Ollama, Diffusers, Transformers, а также модели-трансформеры, диффузионные модели и большие языковые модели (LLM). Инференс-как-сервис позволяет распределять ресурсы ускорителя между задачами на уровне production-ready решения. Это позволит гибко и максимально эффективно управлять ресурсами в облаке, снижая затраты и ускоряя работу ИИ-моделей.
  • AI Assistants — сервис для создания агентных и мультиагентных систем с подключением к внешним системам с MCP (Model Context Protocol), который позволит настроить взаимодействие между ИИ-агентами и источниками данных с возможностью использования продвинутых моделей и собственных решений компании. Сервис обеспечивает быстрый доступ к информации, автоматизацию рутинных задач, в том числе, благодаря использованию RAG.
  • Cloud.ru ML Space — платформа для выполнения задач глубокого обучения с использованием суперкомпьютеров и МО на базе российского решения. Подходит для полного цикла МО-разработки в облаке и on-premise.

Сообщается, что новое решение позволяет объединить в Cloud.ru не только инструменты для создания ИИ-приложений, но и независимых разработчиков ПО, чтобы упростить работу с облаком и бизнеса в целом.

Постоянный URL: http://servernews.ru/1121082
09.04.2025 [18:20], Андрей Крупин

Yandex B2B Tech запустил сервис мониторинга и реагирования на инциденты в облачной среде

Компания Yandex B2B Tech (подразделение «Яндекса», занимающееся разработкой решений для корпоративного сегмента) вывела на рынок Yandex Cloud Detection and Response (YCDR) — управляемый сервис класса MDR/SOCaaS, предназначенный для проактивного мониторинга цифровых угроз и реагирования на инциденты в облаке.

Представленное решение разработано на базе центра мониторинга и реагирования на инциденты информационной безопасности Yandex Cloud. YCDR объединяет в себе экспертный анализ, учитывающий специфику облачных атак, поведенческую аналитику и автоматизацию рутинных действий с помощью технологий искусственного интеллекта.

Yandex Cloud Detection and Response позволяет бизнесу использовать технологии и многолетний опыт защиты инфраструктуры «Яндекса». Клиенты могут делегировать мониторинг и реагирование на инциденты безопасности сначала облачной, а позже и гибридной/мультиоблачной IT-инфраструктуры.

 Источник изображения: пресс-служба Yandex B2B Tech

Источник изображения: пресс-служба Yandex B2B Tech

В настоящий момент YCDR функционирует в пилотном режиме. Для получения доступа к сервису необходимо оставить заявку на сайте облачной платформы Yandex Cloud.

Постоянный URL: http://servernews.ru/1121031
09.04.2025 [17:48], Руслан Авдеев

ИИ Google Gemini поможет переписать приложения для мейнфреймов и перенести их в облако

Незадолго до анонса новых мейнфреймов IBM z17 компания Google анонсировала новые ИИ-инструменты на основе моделей Gemini и других технологий для модернизации инфраструктуры и переносу нагрузок с в облако Google Cloud.

Google Cloud Mainframe Assessment Tool (MAT) на основе ИИ-моделей Gemini уже доступен. Инструмент позволяет оценить и проанализировать общее состояние мейнфреймов, включая приложения и данные. Это даст возможность принимать информированные решения по оптимальной модернизации. MAT обеспечивает глубокий анализ кода, генерирует чёткие объяснения его работы, автоматизирует создание документации и др. Это позволяет ускорить понимание кода мейнфреймов и стимулирует процесс модернизации.

Google Cloud Mainframe Rewrite на основе моделей Gemini позволяет модернизировать приложения для мейнфреймов (инструмент доступен в превью-режиме). Он помогает разработчикам переосмыслить и преобразовать код для мейнфреймов, переписав его на современные языки программирования вроде Java и C#. Mainframe Rewrite предлагает IDE для модернизации кода, тестирования и развёртывания модернизированных приложений в Google Cloud.

 Источник изображения: Ant Rozetsky / Unsplash

Источник изображения: Ant Rozetsky / Unsplash

Наконец, чтобы снизить риски, возникающие при модернизации, предлагается инструмент Google Cloud Dual Run для глубокого тестирования, сертификации и оценки модернизированных приложений. Инструмент позволяет проверить корректность, полноту и производительность модернизированного кода в ходе миграции и до того, как новое приложение заменит старое. Dual Run сравнивает данные, выдаваемые старой и новой системами, для поиска отличий.

Имеются и дополнительные инструменты, разработанные партнёрами Google. Так, Mechanical Orchard предлагает платформу для быстро переписывания приложений на COBOL на современные языки, включая Java, Python и др., без изменения бизнес-логики. Решение позволяет «пошагово» переписывать фрагменты приложений с помощью систем генеративного ИИ с сохранением функциональности и тестировать корректность их работы. Основная цель — создать для облака функциональный эквивалент устаревших решений.

 Источник изображения: Google Cloud

Источник изображения: Google Cloud

Кроме того, в рамках новой программы Google Mainframe Modernization with Gen AI Accelerator компания привлекла Accenture, EPAM и Thoughtworks, которые помогут организациям мигрировать с мейнфреймов. На первом этапе производится анализ кода с помощью MAT и Gemini. На втором реализуется пилотный проект с проверкой работоспособности нового кода. На третьем осуществляется полномасштабная миграция в облако. Первые клиенты могут бесплатно (без учёта расходов на Google Cloud) оценить решения в течение 4-8 недель.

Мейнфреймы ещё рано списывать со счетов. Согласно данным опроса Kyndryl 500 топ-менеджеров ИТ-индустрии, многие организации интегрируют мейнфреймы с публичными и частными облачными платформами и совершенствуют свои программы модернизации, перемещая некоторые рабочие нагрузки с мейнфреймов или обновляя их.

Постоянный URL: http://servernews.ru/1120943
09.04.2025 [13:30], Сергей Карасёв

Британское ИИ-облако NexGen Cloud привлекло на развитие $45 млн

Компания NexGen Cloud из Великобритании, по сообщению ресурса Datacenter Dynamics, осуществила раунд финансирования Series A, в рамках которого на дальнейшее развитие привлечено $45 млн. В качестве инвесторов выступили преимущественно частные лица и семейные трасты, однако подробности о них не разглашаются.

Стартап NexGen Cloud был основан в 2020 году. Компания начинала свою деятельность как поставщик облачной инфраструктуры для блокчейн-приложений, но позднее переориентировалась на стремительно развивающуюся отрасль ИИ. В частности, была развёрнута облачная платформа GPU-as-a-Service (GPU как услуга).

У NexGen Cloud нет собственных дата-центров. Вместо этого стартап заключил долгосрочные соглашения на использование GPU-ресурсов с существующими гиперскейлерами. Эти аппаратные мощности NexGen Cloud затем предлагает клиентам, которым нужен более гибкий подход к обучению ИИ-моделей и инференсу. Ресурсы GPU предоставляются через платформу Hyperstack: утверждается, что на сегодняшний день она насчитывает более 10 тыс. пользователей, включая Red Hat, Ingenix.AI, Tyne и ArchiLabs.

 Источник изображения: NexGen Cloud

Источник изображения: NexGen Cloud

В конце 2023 года NexGen Cloud объявила о намерении инвестировать $1 млрд в создание европейского ИИ-супероблака, насчитывающего 20 тыс. ускорителей NVIDIA H100. Привлечённые в ходе раунда финансирования Series A средства стартап намерен направить на развитие партнёрских отношений, которые «помогут улучшить доступ к вычислительным мощностям для ИИ». Кроме того, компания планирует запустить инфраструктурные услуги и новые продукты, включая систему Fine-Tuning-as-a-Service, призванную повысить эффективность предварительно обученных моделей ИИ.

Постоянный URL: http://servernews.ru/1120990
08.04.2025 [15:42], Руслан Авдеев

В Yandex Cloud появились серверы Bare Metal

В Yandex Cloud стал доступен сервис аренды выделенных физических серверов Yandex BareMetal. Посредством Cloud Interconnect их можно интегрировать с другими облачными сервисами и инфраструктурами, формируя единую вычислительную среду. Как сообщает пресс-служба компании, «в публичном превью с сервисом можно работать по API» — это упростит интеграцию Yandex BareMetal с бизнес-приложениями «Яндекса». Дополнительно сообщается, что права доступа к серверу можно гранулярно распределять между сотрудниками.

По словам представителя Yandex Cloud, у компании большая команда инженеров, годами поддерживающих серверную инфраструктуру. Этот опыт «инвестирован» в Yandex BareMetal, поэтому компании могут полностью доверить обслуживание железа провайдеру, сосредоточившись на развитии IT-продуктов. Кроме того, для Yandex BareMetal доступны облачные инструменты резервного копирования, миграции данных и мониторинга.

 Источник изображений: Yandex Cloud

Источник изображений: Yandex Cloud

По статистике Yandex Cloud, 59 % компаний из России начали пользоваться сервисами BareMetal лишь в последние полтора года. Причина в том, что в этот период у бизнеса стало меньше ресурсов и возможностей для самостоятельной закупки оборудования и его обслуживания. Кроме того, вырос спрос на инфраструктуру для развития ИИ.

Наиболее распространённый сценарий применения BareMetal — для хранения и обработки данных. 70 % респондентов используют арендуемую инфраструктуру именно для этого, 66 % применяют выделенные серверы для собственных развёртываний OpenStack или VMware, 47 % — для хостинга бизнес-приложений и 44 % — для задач бэкофиса. В любом случае респонденты отмечали значимость возможной интеграции BareMetal с технологиями защиты от DDoS-атак (59%), резервного копирования (48 %) и 46 % — интеграции с т.н. «облачным роутером» — сетью между выделенными серверами и облаками провайдера.

В марте «Яндекс» впервыеотчиталась о результатах работы Yandex B2B Tech. Выручка Yandex Cloud увеличилась год к году в 1,5 раза, составив 19,8 млрд руб. 51 % суммы принесли контракты с крупными компаниями. Количество клиентов Yandex Cloud увеличилось год к году в 1,5 раза до 44 тыс., количество партнёров-интеграторов выросло в 1,3 раза — до 674.

Постоянный URL: http://servernews.ru/1120952
04.04.2025 [12:37], Руслан Авдеев

«Агрегатор ускорителей» Parasail анонсировал ИИ-гипероблако

Стартап Parasail привлёк $10 млн стартового капитала и выступил с необычным для рынка ИИ предложением. Компания стала своеобразным «агрегатором ускорителей», создав для инференса сеть, позволяющую свести вместе владельцев вычислительных мощностей и их клиентов с максимальной простотой, сообщает The Next Platform.

Раунд финансирования возглавили Basis Set Ventures, Threshold Ventures, Buckley Ventures и Black Opal Ventures. Компанию основали Майк Генри (Mike Henry), ранее основавший производителя ИИ-решений Mythic и работавший одним из топ-менеджеров в Groq, и Тим Харрис (Tim Harris), генеральный директор Swift Navigation.

Прежний опыт Майка Генри на рынке IT позволил заметить, что в последнее время ландшафт облачных сервисов стремительно меняется — если ранее на нём безраздельно доминировали гиперскейлеры вроде AWS, Microsoft Azure и Google Cloud, то с приходом ИИ они, казалось бы, сохраняют ведущие позиции, но на сцену выходят и новые облачные игроки, чья инфраструктура изначально рассчитана на ИИ-задачи, от обучения до инференса.

В конце 2023 года бизнесмены основали компанию Parasail, которая совсем недавно заявила о себе, заодно собрав $10 млн финансирования. Фактически бизнес рассчитан на клиентов, которые заинтересованы в простом доступе к ИИ-технологиям — он будет связывать тех, кто располагает ими, и тех, кто в них нуждается.

 Источник изображения:  Campaign Creators/unsplash.com

Источник изображения: Campaign Creators/unsplash.com

Parasail намеревается использовать рост облачных ИИ-провайдеров вроде CoreWeave (недавно вышедшей на IPO) и Lambda Labs. Для этого создана сеть AI Deployment Network, объединяющая их вычислительные ресурсы в единую инфраструктуру, которая масштабнее, чем Oracle Cloud Infrastructure (OCI). Компания применяет собственный «движок» для оркестрации процессов в этом гипероблаке.

Ключевым преимуществом является низкая стоимость услуг — утверждается, что компании, желающие отказаться от сервисов вроде OpenAI и Anthropic, могут рассчитывать на экономию в 15–30 раз, а в сравнении с клиентами провайдеров open source моделей — в 2–5 раз. На настройку уходит несколько часов, а инференс после этого можно начать за считанные минуты. Сегодня Parasail предлагает в облаке ресурсы NVIDIA H200, H100 и A100, а также видеокарт NVIDIA GeForce RTX 4090. Цены составляют от $0,65 до $3,25 за час использования.

Parasail столкнулась с проблемой несовместимости инфраструктур: разные облачные платформы используют уникальные подходы к вычислениям, хранению данных, сетевому взаимодействию, а также имеют различия в настройке, биллинге и автоматизации. Хотя Kubernetes и контейнеризация могли бы частично решить эти проблемы, их реализация у разных провайдеров сильно отличается, а Kubernetes изначально не предназначается для работы с несколькими кластерами, регионами или провайдерами одновременно.

Чтобы обойти ограничения, Parasail разработала собственную систему, которая объединяет ускорители из разных облаков в единую глобальную сеть. Их решение позволяет централизованно управлять распределёнными узлами, игнорируя различия в инфраструктуре провайдеров. Если один облачный провайдер выйдет из строя, система автоматически заменяет его ресурсы другими, минимизируя простои. Дополняя эту систему автоматизированным динамическим выделением ускорителей, Parasail создаёт масштабируемую и эффективную глобальную инфраструктуру, способную оперативно адаптироваться к нагрузкам и сбоям.

Оркестрация и оптимизация рабочих нагрузок в ИИ-инфраструктуре усложняются из-за огромного разнообразия моделей, архитектур, типов GPU и ASIC, а также множества способов их комбинирования. Parasail решает эту проблему с помощью гибридного подхода, сочетающего математическое моделирование, ИИ-алгоритмы и участие живых специалистов, что позволяет эффективно масштабироваться даже с небольшой командой.

 Источник изображения: Campaign Creators/unsplash.com

Источник изображения: Campaign Creators/unsplash.com

Закрытое бета-тестирование началось в январе, а позже спрос только вырос до той степени, что Parasail достигла семизначного ежегодного регулярного дохода (ARR). Теперь технология доступна всем, в числе клиентов — производитель чипов SambaNova, ИИ-платформа Oumi, ИИ-стартап Rasa и Elicit, позволяющий автоматизировать научные изыскания.

В будущем стартап намерен быстро расширить штат из 12 работников, рассматриваются и варианты добавления в портфолио новых доступных ускорителей — сейчас там безусловно лидирует NVIDIA, но рынок вполне может измениться.

В то же время отмечается парадоксальная ситуация, когда на рынке наблюдается и дефицит ускорителей, и простой мощностей в некоторых ЦОД одновременно. Предполагается, что дело в плохой оптимизации процессов на рынке ИИ. При этом в компании отмечают, что в данное время спрос на ИИ-приложения «почти бесконечен» и главная проблема — эффективно их использовать. Платформа Parasail для инференса максимально упрощает масштабное внедрение ИИ.

Постоянный URL: http://servernews.ru/1120787
01.04.2025 [14:03], Сергей Карасёв

XenData представила 1U-устройство Z20 на базе Windows 11 Pro для доступа к облачным хранилищам

Компания XenData анонсировала стоечное решение Z20 Cloud Appliance, призванное повысить удобство управления медиафайлами, хранящимися на облачных платформах. Система функционирует под управлением Windows 11 Pro, а доступ к объектам предоставляется через интуитивно понятный веб-интерфейс.

Решение XenData Z20 выполнено в форм-факторе 1U. Применён неназванный процессор Intel Xeon с четырьмя ядрами, работающий в тандеме с 16 Гбайт оперативной памяти. В оснащение входят системный SSD вместимостью 480 Гбайт и SSD на 3,84 Тбайт для локального хранилища. При необходимости могут быть установлены ещё два SSD ёмкостью 3,84 Тбайт каждый.

 Источник изображения: XenData

Источник изображения: XenData

Стандартная конфигурация включает четыре сетевых порта 1GbE. В тыльной части корпуса располагаются три слота OCP, в которые могут устанавливаться двухпортовые адаптеры 10/25GbE SFP+. Предусмотрены один фронтальный и четыре тыльных порта USB 3.2, интерфейсы DisplayPort и D-Sub. Устройство заключено в корпус глубиной 387 мм, а масса составляет 9,5 кг. Базовая конфигурация включает один блок питания мощностью 500 Вт, но при необходимости может быть установлен второй такой же блок.

Система XenData Z20 поддерживает работу с публичными облачными хранилищами AWS S3, Microsoft Azure Blob Storage, Seagate Lyve и Wasabi. При этом обеспечивается управление различными уровнями объектного хранилища, доступными в AWS и Azure. Многопользовательский веб-интерфейс позволяет просматривать эскизы изображений, воспроизводить видео-превью, искать нужный контент и пр. Несмотря на то, что устройство оптимизировано для работы именно с медиаконтентом, оно поддерживает файлы любых других типов — от XML до документов Word. Приобрести решение можно по ориентировочной цене $9880.

Постоянный URL: http://servernews.ru/1120590
29.03.2025 [10:01], Сергей Карасёв

Квартальные затраты на облачную инфраструктуру выросли вдвое на фоне бума ИИ

По оценкам компании International Data Corporation (IDC), мировые затраты на облачную инфраструктуру в IV квартале 2024 года достигли $67 млрд: это на 99,3 %, т.е. практически в два раза, больше по сравнению с аналогичным периодом предыдущего года. При этом необлачный сегмент показал рост на 25,8 % — до $22 млрд.

Аналитики учитывают продажи серверов и СХД для выделенных и публичных облачных платформ. Главным драйвером отрасли является ИИ, в частности, «рассуждающие» модели и агенты ИИ. Облачные провайдеры активно закупают дорогостоящие системы с ускорителями на базе GPU, а также инвестируют средства в расширение сетей дата-центров.

Расходы на публичную облачную инфраструктуру достигли $57 млрд в IV квартале 2024 года, увеличившись на 124,4 % по сравнению с предыдущим годом. В секторе выделенных облаков отмечен рост на 21,8 % в годовом исчислении — до $10 млрд. Таким образом, на публичные платформы пришлось 64,0 % от общих затрат.

 Источник изображения: IDC

Источник изображения: IDC

В географическом разрезе расходы на облачную инфраструктуру в последней четверти 2024 года увеличились во всех регионах. В частности, максимальный рост зафиксирован в Канаде и США — плюс 151,8 % и 125,3 % в годовом исчислении соответственно. Китай, Япония, Азиатско-Тихоокеанский регион (за исключением КНР и Японии), Западная Европа, Ближний Восток / Африка, а также Латинская Америка показали прибавку в 99,6 %, 76,2 %, 48,0 %, 36,8 %, 28,1 % и 14,3 % соответственно. В Центральной и Восточной Европе отмечено увеличение на 5,6 %.

IDC прогнозирует, что в 2025 году расходы на облачную инфраструктуру поднимутся на 33,3 % по сравнению с 2024-м, составив $271,5 млрд. При этом публичные платформы покажут рост на 25,7 % в годовом исчислении — до $213,7 млрд. В сегменте выделенных облаков ожидается прибавка около 71,8 % — до $57,8 млрд. Расходы на необлачную инфраструктуру, по мнению IDC, в 2025 году снизятся на 4,9 %, составив $68,1 млрд.

Постоянный URL: http://servernews.ru/1120496
28.03.2025 [18:01], Руслан Авдеев

Crusoe привлекла $225 млн на закупку чипов NVIDIA для развития облачной ИИ-инфраструктуры

Компания Crusoe получила кредитную линию в объёме $225 млн для расширения своего облака. Раунд возглавила частная кредитная структура Upper90 Capital Management, а участвовали в сборе средств British Columbia Investment Management Corporation, FS Investments, King Street Capital Management, Liberty Mutual Investments и ORIX USA, сообщает Datacenter Dynamics.

Более всего Crusoe сегодня известна строительством дата-центров, также компания управляет облачным сервисом, доступным корпоративным клиентам, желающим арендовать ИИ-инфраструктуру. Привлечённые средства потратят на приобретение ИИ-ускорителей NVIDIA и вспомогательной инфраструктуры для расширения облаков оператора.

В компании заявляют, что новые средства будут способствовать расширению облака Crusoe Cloud, призванного упростить и ускорить разработку ИИ для каждой компании-клиента. Давнее стратегическое партнёрство с Upper90 сыграло важную роль в масштабировании технологий Crusoe для удовлетворения спроса на облака. По данным пресс-службы Crusoe, последний раунд финансирования развивает успехи компании, достигнутые после декабрьского раунда серии D на сумму $600 млн.

 Источники изображения: Alexander Grey/unsplash.com

Источники изображения: Alexander Grey/unsplash.com

В своё время компания начинала как бизнес, занимавшийся добычей криптовалют и размещала модульные ЦОД неподалёку от нефтегазовой инфраструктуры для использования в качестве топлива для генераторов попутного природного газа.

В последние годы она переключилась на работу с ИИ-инфраструктурой и строит большой ЦОД в Техасе совместно с Oracle для OpenAI, намеренной реализовать проект Stargate. Также сообщалось о совместном проекте с Chirisa и PowerHouse стоимостью $5 млрд, предусматривающем строительство ЦОД на этой территории США, в основном для CoreWeave. Наконец, совсем недавно она объявила о полном отказе от своего криптомайнингового бизнеса — оставшиеся активы проданы NYDIG.

Ранее сообщалось, что Crusoe получит доступ к 4,5 ГВт электричества, вырабатываться которое будет за счёт природного газа. Проект реализован совместно с инвесторами из Engine No.1. Предполагается использовать мощности для питания новых ИИ ЦОД, некоторые из которых, возможно, построят для Stargate.

Для Crusoe Cloud арендовано помещение ЦОД ICE02 в Исландии, партнёрское соглашение заключили и с Digital Realty. Стоит отметить, что Upper90 была одним из первых спонсоров Crusoe, кредит на оборудование компания предоставила последней ещё в 2019 году. В Upper90 подчеркнули, что Crusoe сегодня находится на переднем крае облачных ИИ-вычислений и решений в области экоустойчивой энергетики. Представители инвестора заявили, что заняты структурированием инновационного финансирования и гордятся углублением связей с Crusoe.

Постоянный URL: http://servernews.ru/1120469
28.03.2025 [11:17], Сергей Карасёв

NVIDIA близка к приобретению облачного ИИ-провайдера Lepton AI

Компания NVIDIA, по сообщению The Information, ведёт переговоры о покупке облачного стартапа Lepton AI, который специализируется на сдаче в аренду ИИ-серверов. Стоимость сделки, как утверждается, может составить «сотни миллионов долларов».

Фирма Lepton AI была основана в 2023 году: её соучредителями являются Янцин Цзя (Yangqing Jia) и Цзюньцзе Бай (Junjie Bai), бывшие исследователи лаборатории искусственного интеллекта Meta Platforms. Они, в частности, принимали участие в разработке PyTorch.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Lepton AI предоставляет облачные ресурсы, оптимизированные для различных задач ИИ, включая обучение больших языковых моделей (LLM) и инференс. Клиентам доступны разные ускорители NVIDIA, а также специальный инструмент для централизованного управления выделенными мощностями при работе одновременно с несколькими проектами. Платформа Lepton AI содержит функции для обнаружения возможных ошибок на этапе обучения LLM и всевозможных проблем технического характера, например, связанных с выделением памяти. После завершения разработки ИИ-модели клиенты могут развернуть её в облаке Lepton AI с применением инстансов, оптимизированных для задач инференса. Говорится о производительности более 600 токенов в секунду при задержках менее 10 мс.

Отмечается, что Lepton AI в ходе начального раунда финансирования получила $11 млн. В число инвесторов входят CRV и Fusion Fund. На сегодняшний день штат стартапа насчитывает около 20 сотрудников. Ожидается, что приобретение Lepton AI поможет NVIDIA укрепить позиции в сегменте облачных вычислений для ИИ.

Постоянный URL: http://servernews.ru/1120436

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus