Материалы по тегу: ии

10.04.2025 [19:23], Владимир Мироненко

Cloud.ru готовит облачную платформу для локального развёртывания ИИ-сервисов

Провайдер облачных и ИИ-технологий Cloud.ru объявил о разработке новой платформы для локального развёртывания ИИ-сервисов Cloud.ru Evolution Stack AI-bundle, представляющей собой конфигурацию решения Cloud.ru Evolution Stack, оптимизированную под выполнение ML- и ИИ-задач.

Новая платформа объединит возможности частного и гибридного облака Cloud.ru с набором инструментов для быстрой и безопасной разработки ИИ-продуктов с полным контролем данных. Решение будет востребовано представителями финансового и государственного секторов, операторами облачных ЦОД, крупным ретейлом и промышленными предприятиями. Использование платформы позволит упростить запуск и масштабирование ИИ-сервисов, снизит для пользователей порог входа в разработку ИИ-решений и ускорит их внедрение предприятиями.

Cloud.ru Evolution Stack AI-bundle будет включать сервисы для end-to-end ML-разработки и локального развёртывания, кастомизации и дальнейшего масштабирования моделей, в том числе:

  • рабочие DS-окружения Jupyter Lab;
  • инструменты управления жизненным циклом ML-моделей (обучение, дообучение, инференс);
  • инфраструктурные компоненты: Managed Kubernetes с поддержкой ускорителей, реестр артефактов, виртуальные машины на базе ускорителей, высокопроизводительное S3-хранилище и специализированная файловая система для интеграции с ML-сервисами.

Новая платформа будет базироваться на собственных разработках Cloud.ru в сфере ИИ, используемых в облачной платформе Cloud.ru Evolution, и свободно распространяемых компонентах. С её помощью можно будет решать ИИ-задачи в гибридном сценарии: например, обучать модели в публичном облаке, а инференс выполнять в частном контуре клиента, или, наоборот, переносить процесс в публичное облако в периоды высокой нагрузки.

Используя OSS/BSS-инструменты, платформа поддерживает мультитенантную архитектуру, централизованное управление доступом, мониторинг сервисов и определение квот на используемые ресурсы. При необходимости Cloud.ru Evolution Stack AI-bundle будет дополняться другими IaaS/PaaS провайдера при создании облачного решения под ключ для использования на уровне всей инфраструктуры клиента. Также можно будет дополнять предложение Cloud.ru Evolution Stack ИИ-решениями из портфеля Evolution Stack AI-bundle.

Платформа для создания гибридного и частного облака Cloud.ru входит в реестр российского программного обеспечения и соответствует требованиям импортозамещения. Помимо лицензионного ПО, разрабатываемая платформа будет доступна в составе программно-аппаратных комплексов для ИИ-задач с поставкой по подписке. По словам Cloud.ru, новая платформа обеспечит крупному бизнесу и государственным организациям возможность использования ИИ-сервисов и полного набора инструментов публичного облака Cloud.ru Evolution on-premise.

Постоянный URL: http://servernews.ru/1121104
10.04.2025 [17:18], Андрей Крупин

Российская служба каталогов MultiDirectory стала доступна в версии Enterprise с расширенным набором функций

Компания «Мультифактор» сообщила о выпуске Enterprise-версии службы каталогов MultiDirectory. В отличие от свободного распространяемой Community-сборки, коммерческое решение имеет расширенные функциональные возможности и предполагает техническое сопровождение со стороны разработчика.

MultiDirectory представляет собой инструмент для аутентификации и авторизации пользователей в корпоративной среде с использованием протоколов LDAP/LDAPS. Продукт структурно адаптирован под Active Directory, что позволяет использовать его в средах, где требуется совместимость с этой службой. Отечественная разработка обеспечивает централизованное управление учётными записями, гибкую настройку политик безопасности, двухфакторную аутентификацию, интеграцию с DNS-сервером Bind9. Решение поддерживает взаимодействие с рабочими станциями на базе Windows, macOS, Linux и может быть интегрировано с различными сторонними системами в IT-инфраструктуре организации.

 Пользовательский интерфейс MultiDirectory (источник изображения: multidirectory.ru)

Пользовательский интерфейс MultiDirectory (источник изображения: multidirectory.ru)

Помимо основных возможностей, Enterprise-версия службы каталогов MultiDirectory включает в себя постоянное внедрение новых функций вроде поддержки доверия доменов, гибкой ролевой модели и контроля сессий пользователей, гарантированную техническую поддержку от разработчиков «Мультифактор», прямой доступ к экспертам через e-mail и телефон, а также конкретные сроки исправления багов и регулярные обновления.

 Сравнение Community- и Enterprise-версий MultiDirectory (источник изображения: multidirectory.ru)

Сравнение Community- и Enterprise-версий MultiDirectory (источник изображения: multidirectory.ru)

MultiDirectory в полной мере отвечает задачам импортозамещения и может использоваться заказчиками при реализации программ по переходу на отечественные продукты с решений зарубежных разработчиков.

Постоянный URL: http://servernews.ru/1121096
10.04.2025 [15:01], Руслан Авдеев

В Эдинбургском университете заработал ИИ-кластер на базе Cerebras CS-3

Эдинбургский университет и Cerebras Systems развернули в суперкомпьютерным центре EPCC кластера из четырёх ИИ-систем CS-3 на базе царь-ускорителей WSE-3. Новые мощности являются частью Edinburgh International Data Facility. По словам EPCC, это крупнейший кластер CS-3 в Европе. EPCC уже имеет опыт работы с системами CS-1 и CS-2. В Cerebras заявили, что гордятся расширением сотрудничества с EPCC, которое поможет стать Великобритании одним из ключевых мировых ИИ-хабов.

Как заявляют в EPCC, ИИ сегодня изменяет все сферы жизни, поэтому новые системы помогут университетам, государственным организациям и компаниям обучать и использовать ИИ-модели на скоростях и с лёгкостью, недоступной другим ИИ-решениям. Платформы Cerebras оптимизированы не только для масштабного обучения моделей, но и для сверхбыстрого инференса — пользователям кластера теперь доступна платформа-рекордсмен Cerebras AI Inference. Системы CS-3 способны выдавать до 2000 токенов/с для популярных ИИ-моделей.

 Источник изображения: Nadia Ramella/unsplash.com

Источник изображения: Nadia Ramella/unsplash.com

С новыми кластерами на основе Cerebras CS-3, EPCC сможет обучать модели от 240 млрд до 1 трлн параметров, а также ежедневно тюнинговать модели с 70 млрд параметров. Лёгкость использования технологий Cerebras позволяет использовать ИИ-модели и в дисциплинах, не относящихся к компьютерным наукам. Технологии Cerebras обеспечивают линейную масштабируемость, что ускоряет инновации и повышает продуктивность команды EPCC, говорится в сообщении.

Эдинбургский университет считается одним из лидеров в разработке ИИ-систем в последние 60 лет. Системы CS-2 в распоряжении EPCC уже позволили исследователям разработать высокоэффективное ПО для инференса для больших языковых моделей (LLM) — как для местного применения, так и для помощи исследователям из Индии в разработке ИИ-моделей для материаловедения и из Швейцарии — для адаптации LLM к местному диалекту немецкого языка. Кроме того, платформы CS-3 с миллионами вычислительных ядер позволят продолжить исследования EPCC в областипараллельных вычислений и энергоэффективности.

Постоянный URL: http://servernews.ru/1121065
10.04.2025 [13:27], Владимир Мироненко

Cloud.ru готовит решение полного цикла для работы с ИИ в облаке

Провайдер облачных и ИИ-технологий Cloud.ru анонсировал Cloud.ru Evolution AI Factory, цифровую среду для разработки приложений и агентов на основе ИИ в облаке, которая объединяет облачные ИИ- и ML-инструменты для работы с генеративными нейросетями и управления жизненным циклом ИИ-приложений. Это универсальная среда с широким спектром возможностей: от обучения моделей до запуска мультиагентных систем.

С помощью Cloud.ru Evolution AI Factory компании смогут создавать собственные ИИ-приложения по предлагаемым готовым шаблонам или работать с кастомизированными ИИ-моделями. Благодаря удобному набору технологий и встроенных ассистентов с решением можно работать даже без специальных навыков. Использование Cloud.ru Evolution AI Factory позволит компаниям значительно снизить затраты на вычислительную инфраструктуру, повысить эффективность работы и сократить сроки вывода новых продуктов на рынок.

Как сообщил глава Cloud.ru, решение будет доступно клиентам этим летом с полностью готовой инфраструктурой, сервисами и продуктами для простого и быстрого создания ИИ-приложений. Платформа включает:

  • Сервис Foundation Models, обеспечивающий быстрый и удобный доступ в российском облаке к таким популярным моделям, включая GigaChat, DeepSeek, Qwen и Gemma. Он позволит разработчикам адаптировать ИИ-модели под свои задачи, проверять гипотезы и проводить эксперименты без необходимости в запуске сложной инфраструктуры. В состав сервиса также входит AI Playground — среда для быстрого прототипирования, проверки гипотез и тестирования моделей на практике.
  • Evolution ML Inference — сервис для запуска моделей из библиотеки Hugging Face на облачных мощностях с ускорителями, в том числе в пользовательских Docker-образах. Он поддерживает среды исполнения vLLM, TGI, Ollama, Diffusers, Transformers, а также модели-трансформеры, диффузионные модели и большие языковые модели (LLM). Инференс-как-сервис позволяет распределять ресурсы ускорителя между задачами на уровне production-ready решения. Это позволит гибко и максимально эффективно управлять ресурсами в облаке, снижая затраты и ускоряя работу ИИ-моделей.
  • AI Assistants — сервис для создания агентных и мультиагентных систем с подключением к внешним системам с MCP (Model Context Protocol), который позволит настроить взаимодействие между ИИ-агентами и источниками данных с возможностью использования продвинутых моделей и собственных решений компании. Сервис обеспечивает быстрый доступ к информации, автоматизацию рутинных задач, в том числе, благодаря использованию RAG.
  • Cloud.ru ML Space — платформа для выполнения задач глубокого обучения с использованием суперкомпьютеров и МО на базе российского решения. Подходит для полного цикла МО-разработки в облаке и on-premise.

Сообщается, что новое решение позволяет объединить в Cloud.ru не только инструменты для создания ИИ-приложений, но и независимых разработчиков ПО, чтобы упростить работу с облаком и бизнеса в целом.

Постоянный URL: http://servernews.ru/1121082
10.04.2025 [12:12], Сергей Карасёв

Cloud.ru: почти две трети российских IT-специалистов доверяют ИИ

Провайдер облачных сервисов Cloud.ru обнародовал результаты исследования, посвящённого использованию средств ИИ российскими IT-специалистами. Выяснилось, что более 70 % респондентов применяют ИИ-сервисы как минимум раз в неделю, а 39 % разработчиков ПО используют такие инструменты ежедневно.

Опубликованные цифры получены в ходе опроса разработчиков, тестировщиков, аналитиков данных и представителей других IT-специальностей с разным уровнем подготовки со всей России. Большинство респондентов отмечают, что навыки работы с ИИ становятся всё более значимыми на рынке труда. В частности, 70 % участников опроса периодически встречают в вакансиях обязательное требование владеть навыками и инструментами ИИ, а 22 % респондентов сталкиваются с подобными требованиями регулярно.

Практически две трети — 62 % — IT-специалистов в России доверяют ИИ как напарнику. Почти половина опрошенных, в чьих компаниях активно поддерживается использование ИИ, оценили доверие к технологии наивысшим баллом. Вместе с тем 46 % респондентов больше доверяют российским ИИ-сервисам, тогда как одинаковое доверие к отечественным и зарубежным инструментам проявляют менее трети специалистов — около 31 %. Среди наиболее популярных сценариев использования ИИ названы (респонденты могли выбирать несколько ответов):

  • Работа с кодом — 73 %;
  • Генерация текстов — 31 %;
  • Поиск информации — 31 %;
  • Анализ данных — 31 %;
  • Создание презентаций — 24 %;
  • Генерация изображений — 24 %;
  • Анализ рисков кибербезопасности — 19 %;
  • Расшифровка аудиозаписей — 15 %;
  • Подготовка обзоров объёмной информации — 9 %.

В целом, как сказано в исследовании, применение ИИ помогает российским IT-специалистам работать быстрее и эффективнее, минимизирует усилия, избавляет от рутины, повышает чувство уверенности и комфорта, освобождая больше времени для профессиональной реализации и решения интересных мотивирующих задач.

Постоянный URL: http://servernews.ru/1121061
10.04.2025 [09:14], Владимир Мироненко

ZeroPoint Technologies и Rebellions займутся разработкой ИИ-ускорителей со «сжимаемой» памятью

Шведская компания ZeroPoint Technologies, специализирующаяся на создании решений для оптимизации памяти, объявила о стратегическом альянсе с южнокорейским разработчиком ИИ-чипов Rebellions с целью разработки ИИ-ускорителей для инференс. Компании планируют представить новые продукты в 2026 году, обещая «беспрецедентную производительность в пересчёте на токены в секунду на Вт (TPS/W)», пишет EE Times.

Компании планируют увеличить эффективную пропускную способность и ёмкость памяти для нагрузок инференса, используя технологии сжатия, уплотнения и управления памятью от ZeroPoint Technologies. По словам генерального директора ZeroPoint Technologies Класа Моро (Klas Moreau), аппаратная оптимизация работы с памятью на уровне ЦОД позволит увеличить адресуемую ёмкость с ускорением работы почти в 1000 раз по сравнению с использованием программного сжатия.

Компании планируют улучшить показатели токенов в секунду на Вт без ущерба для точности, используя сжатие модели без потерь для уменьшения её размера и сокращения использования энергии, необходимой для перемещения компонентов модели. Гендиректор Rebellions Сонхён Пак (Sunghyun Park) указал, что партнёрство позволит компаниям переопределить возможности инференса, предоставляя более умную, экономичную и устойчивую ИИ-инфраструктуру.

 Источник изображения: ZeroPoint Technologies

Источник изображения: ZeroPoint Technologies

Моро ранее заявил, что более 70 % данных, хранящихся в памяти, являются избыточными, что позволяет полностью избавиться от них, добившись сжатия без потерь полезной информации. Такая технология сжатия должна выполнять ряд специфических действий в пределах наносекунды, т.е. всего нескольких тактов: «Во-первых, она должна отрабатывать сжатие и распаковку. Во-вторых, она должна уплотнять полученные данные, собирая небольшие фрагменты в единичную линию кеша, чтобы значительно улучшить видимую пропускную способность памяти, и, наконец, она должна бесперебойно управлять данными, отслеживая все фрагменты. Чтобы минимизировать задержку, такой подход должен работать с гранулярностью линий кеша — сжимая, уплотняя и управляя данными в 64-байт фрагментах — в отличие от гораздо больших блоков 4–128 Кбайт, используемых традиционными методами сжатия вроде ZSTD и LZ4».

По словам Моро, благодаря этой технологии, для базовых рабочих нагрузок в ЦОД гиперскейлера адресуемая ёмкость памяти и пропускная способность могут быть увеличены в два-четыре раза, производительность на Вт может увеличиться на 50 %, а совокупная стоимость владения (TCO) может быть значительно снижена. А для специализированных нагрузок, таких как большие языковые модели (LLM), интеграция программного сжатия в сочетании с встроенной аппаратной декомпрессией (что минимизирует любую дополнительную задержку) уже продемонстрировала прирост примерно на 50 % в адресуемой ёмкости памяти, пропускной способности и токенах в секунду.

Моро утверждает, что грядущая интеграция аппаратной (де-)компрессии обещает ещё более существенные улучшения. Например, для базовых ИИ-нагрузок кластер со 100 Гбайт физической памяти благодаря использованию этой технологии будет функционировать так, как если бы у него было 150 Гбайт памяти. «Это не только представляет собой миллиарды долларов потенциальной экономии, но и может повысить производительность сложных ИИ-моделей», — заявил Моро. «Эти достижения обеспечивают надёжную основу для компаний, производящих чипы ИИ, позволяя бросить вызов доминированию таких гигантов отрасли, как NVIDIA», — добавил он.

Постоянный URL: http://servernews.ru/1121013
09.04.2025 [21:55], Владимир Мироненко

Google представила ИИ-ускоритель TPU v7 Ironwood, созданный специально для инференса «размышляющих» моделей

Компания Google Cloud представила тензорный ускоритель TPU седьмого поколения Ironwood, который охарактеризовала как свой самый производительный и масштабируемый настраиваемый ИИ-ускоритель на сегодняшний день и первый среди её чипов, разработанный специально для инференса.

Новый чип представляет собой важный поворот в десятилетней стратегии Google по разработке ИИ-чипов, отметил ресурс VentureBeat. В то время как предыдущие поколения TPU были созданы в первую очередь для рабочих нагрузок обучения и инференса, Ironwood — первый чип, специально созданный для инференса.

Как пояснила Google, Ironwood знаменует значительный сдвиг в развитии ИИ и инфраструктуры — переход от простых ИИ-моделей, которые просто предоставляют информацию в режиме реального времени, к моделям, которые обеспечивают проактивную генерацию идей и интерпретацию данных. Компания назвала этот период «эпохой инференса», когда ИИ-агенты будут активно извлекать и генерировать данные, чтобы совместно предоставлять информацию и ответы, а не просто «голые» сведения.

 Источник изображений: Google

Источник изображений: Google

Ironwood разработан в соответствии со сложными вычислительными и коммуникационными требованиями «моделей мышления», которые охватывают большие языковые модели (LLM), смешанные экспертные модели (MoE) и сложные задачи для рассуждения. Эти модели требуют массивной параллельной обработки и эффективного доступа к памяти. В частности, Ironwood разработан для минимизации перемещения данных и задержек на чипе при выполнении массивных тензорных манипуляций. Требования размышляющих моделей к вычислительным мощностям выходят далеко за рамки возможностей любого отдельного чипа.

Google Cloud Ironwood будет поставляться в двух конфигурациях: с 256 или с 9216 чипами. Один чип может похвастаться пиковой вычислительной мощностью 4614 Тфлопс (FP8), а кластер из 9216 чипов мощностью порядка 10 МВт выдаёт в общей сложности 42,5 Эфлопс. Ironwood оснащён усовершенствованным блоком SparseCore, предназначенным для ускорения работы с ИИ-моделями, которые используются в системах ранжирования и рекомендаций. Расширенная реализация SparseCore в Ironwood позволяет ускорить более широкий спектр рабочих нагрузок, выйдя за рамки традиционной области ИИ в финансовые и научные сферы.

Каждый чип оснащен 192 Гбайт памяти HBM, что в шесть раз больше, чем у TPU v6 Trillium. Пропускная способность памяти достигает 7,2 Тбайт/с на чип, что в 4,5 раза больше, чем у Trillium. Также используется межчиповый интерконнект Inter-Chip Interconnect (ICI) с пропускной способностью 1,2 Тбайт/с в дуплексе, что в 1,5 раза больше, чем у Trillium. Наконец, самое важное в эпоху ограниченных по мощности ЦОД — Ironwood обеспечивает вдвое большую производительность на Вт по сравнению с Trillium, а в сравнении с самым первым TPU от 2018 года он почти в 30 энергоэффективнее. Для Ironwood используется СЖО.

С Ironwood разработчики также могут задействовать программный стек Pathways от Google DeepMind, чтобы использовать объединённую вычислительную мощность десятков тысяч TPU Ironwood. Как сообщается, Ironwood будет доступен клиентам Google и её собственным разработчикам в конце 2025 года.

Google зафиксировала 10-кратный рост спроса на ИИ-вычисления за последние восемь лет. Как отметил ресурс VentureBeat, перенос Google фокуса на оптимизацию инференса имеет смысл. Обучение производится редко, а операции инференса — миллиарды раз в день. Экономика ИИ всё больше связана с затратами на инференс, особенно по мере того, как модели становятся всё более сложными и требующими больших вычислительных ресурсов.

Постоянный URL: http://servernews.ru/1121034
09.04.2025 [17:48], Руслан Авдеев

ИИ Google Gemini поможет переписать приложения для мейнфреймов и перенести их в облако

Незадолго до анонса новых мейнфреймов IBM z17 компания Google анонсировала новые ИИ-инструменты на основе моделей Gemini и других технологий для модернизации инфраструктуры и переносу нагрузок с в облако Google Cloud.

Google Cloud Mainframe Assessment Tool (MAT) на основе ИИ-моделей Gemini уже доступен. Инструмент позволяет оценить и проанализировать общее состояние мейнфреймов, включая приложения и данные. Это даст возможность принимать информированные решения по оптимальной модернизации. MAT обеспечивает глубокий анализ кода, генерирует чёткие объяснения его работы, автоматизирует создание документации и др. Это позволяет ускорить понимание кода мейнфреймов и стимулирует процесс модернизации.

Google Cloud Mainframe Rewrite на основе моделей Gemini позволяет модернизировать приложения для мейнфреймов (инструмент доступен в превью-режиме). Он помогает разработчикам переосмыслить и преобразовать код для мейнфреймов, переписав его на современные языки программирования вроде Java и C#. Mainframe Rewrite предлагает IDE для модернизации кода, тестирования и развёртывания модернизированных приложений в Google Cloud.

 Источник изображения: Ant Rozetsky / Unsplash

Источник изображения: Ant Rozetsky / Unsplash

Наконец, чтобы снизить риски, возникающие при модернизации, предлагается инструмент Google Cloud Dual Run для глубокого тестирования, сертификации и оценки модернизированных приложений. Инструмент позволяет проверить корректность, полноту и производительность модернизированного кода в ходе миграции и до того, как новое приложение заменит старое. Dual Run сравнивает данные, выдаваемые старой и новой системами, для поиска отличий.

Имеются и дополнительные инструменты, разработанные партнёрами Google. Так, Mechanical Orchard предлагает платформу для быстро переписывания приложений на COBOL на современные языки, включая Java, Python и др., без изменения бизнес-логики. Решение позволяет «пошагово» переписывать фрагменты приложений с помощью систем генеративного ИИ с сохранением функциональности и тестировать корректность их работы. Основная цель — создать для облака функциональный эквивалент устаревших решений.

 Источник изображения: Google Cloud

Источник изображения: Google Cloud

Кроме того, в рамках новой программы Google Mainframe Modernization with Gen AI Accelerator компания привлекла Accenture, EPAM и Thoughtworks, которые помогут организациям мигрировать с мейнфреймов. На первом этапе производится анализ кода с помощью MAT и Gemini. На втором реализуется пилотный проект с проверкой работоспособности нового кода. На третьем осуществляется полномасштабная миграция в облако. Первые клиенты могут бесплатно (без учёта расходов на Google Cloud) оценить решения в течение 4-8 недель.

Мейнфреймы ещё рано списывать со счетов. Согласно данным опроса Kyndryl 500 топ-менеджеров ИТ-индустрии, многие организации интегрируют мейнфреймы с публичными и частными облачными платформами и совершенствуют свои программы модернизации, перемещая некоторые рабочие нагрузки с мейнфреймов или обновляя их.

Постоянный URL: http://servernews.ru/1120943
09.04.2025 [17:03], Руслан Авдеев

NVIDIA и Cassava Technologies построят в Африке ИИ-фабрику за $720 млн

Африканская технологическая компания Cassava Technologies может инвестировать до $720 млн в первую в Африке «ИИ-фабрику» на базе решений NVIDIA, сообщает Bloomberg. Действующая на территории всего африканского континента компания зимбабвийского происхождения намерена развернуть ИИ-кластеры и сервисы в Южной Африке, Египте, Нигерии, Кении и Марокко.

Как сообщает представитель Cassava, если компания не сделает первый шаг в деле инвестиций в ИИ, какими бы ограниченными они ни были, нельзя рассчитывать, что это сделают и другие. В компании уверены, что нельзя позволить, чтобы Африка осталась позади в деле мирового развития искусственного интеллекта. «ИИ-фабрика» Cassava рассчитана на исследователей в университетах, стартапы и разработчиков в самых разных секторах — здравоохранении, финтехе, государственном управлении.

 Источник изображения: George Brits/unsplash.com

Источник изображения: George Brits/unsplash.com

Первый кластер из 3 тыс. ускорителей NVIDIA к июню будет развёрнут в Южной Африке. В течение трёх-четырёх лет Cassava рассчитывает довести общее количество ускорителей в Африке до 12 тыс. Впрочем, сами ускорители, по словам компании — это лишь основа, а инвестиции в целом направлены на создание ИИ-экосистемы. Кроме того, компания рассчитывает продавать избыточные вычислительные мощности другим заказчикам со всего мира.

Постоянный URL: http://servernews.ru/1121014
09.04.2025 [13:30], Сергей Карасёв

Британское ИИ-облако NexGen Cloud привлекло на развитие $45 млн

Компания NexGen Cloud из Великобритании, по сообщению ресурса Datacenter Dynamics, осуществила раунд финансирования Series A, в рамках которого на дальнейшее развитие привлечено $45 млн. В качестве инвесторов выступили преимущественно частные лица и семейные трасты, однако подробности о них не разглашаются.

Стартап NexGen Cloud был основан в 2020 году. Компания начинала свою деятельность как поставщик облачной инфраструктуры для блокчейн-приложений, но позднее переориентировалась на стремительно развивающуюся отрасль ИИ. В частности, была развёрнута облачная платформа GPU-as-a-Service (GPU как услуга).

У NexGen Cloud нет собственных дата-центров. Вместо этого стартап заключил долгосрочные соглашения на использование GPU-ресурсов с существующими гиперскейлерами. Эти аппаратные мощности NexGen Cloud затем предлагает клиентам, которым нужен более гибкий подход к обучению ИИ-моделей и инференсу. Ресурсы GPU предоставляются через платформу Hyperstack: утверждается, что на сегодняшний день она насчитывает более 10 тыс. пользователей, включая Red Hat, Ingenix.AI, Tyne и ArchiLabs.

 Источник изображения: NexGen Cloud

Источник изображения: NexGen Cloud

В конце 2023 года NexGen Cloud объявила о намерении инвестировать $1 млрд в создание европейского ИИ-супероблака, насчитывающего 20 тыс. ускорителей NVIDIA H100. Привлечённые в ходе раунда финансирования Series A средства стартап намерен направить на развитие партнёрских отношений, которые «помогут улучшить доступ к вычислительным мощностям для ИИ». Кроме того, компания планирует запустить инфраструктурные услуги и новые продукты, включая систему Fine-Tuning-as-a-Service, призванную повысить эффективность предварительно обученных моделей ИИ.

Постоянный URL: http://servernews.ru/1120990