Материалы по тегу: ии
|
10.04.2025 [19:23], Владимир Мироненко
Cloud.ru готовит облачную платформу для локального развёртывания ИИ-сервисовПровайдер облачных и ИИ-технологий Cloud.ru объявил о разработке новой платформы для локального развёртывания ИИ-сервисов Cloud.ru Evolution Stack AI-bundle, представляющей собой конфигурацию решения Cloud.ru Evolution Stack, оптимизированную под выполнение ML- и ИИ-задач. Новая платформа объединит возможности частного и гибридного облака Cloud.ru с набором инструментов для быстрой и безопасной разработки ИИ-продуктов с полным контролем данных. Решение будет востребовано представителями финансового и государственного секторов, операторами облачных ЦОД, крупным ретейлом и промышленными предприятиями. Использование платформы позволит упростить запуск и масштабирование ИИ-сервисов, снизит для пользователей порог входа в разработку ИИ-решений и ускорит их внедрение предприятиями. Cloud.ru Evolution Stack AI-bundle будет включать сервисы для end-to-end ML-разработки и локального развёртывания, кастомизации и дальнейшего масштабирования моделей, в том числе:
Новая платформа будет базироваться на собственных разработках Cloud.ru в сфере ИИ, используемых в облачной платформе Cloud.ru Evolution, и свободно распространяемых компонентах. С её помощью можно будет решать ИИ-задачи в гибридном сценарии: например, обучать модели в публичном облаке, а инференс выполнять в частном контуре клиента, или, наоборот, переносить процесс в публичное облако в периоды высокой нагрузки. Используя OSS/BSS-инструменты, платформа поддерживает мультитенантную архитектуру, централизованное управление доступом, мониторинг сервисов и определение квот на используемые ресурсы. При необходимости Cloud.ru Evolution Stack AI-bundle будет дополняться другими IaaS/PaaS провайдера при создании облачного решения под ключ для использования на уровне всей инфраструктуры клиента. Также можно будет дополнять предложение Cloud.ru Evolution Stack ИИ-решениями из портфеля Evolution Stack AI-bundle. Платформа для создания гибридного и частного облака Cloud.ru входит в реестр российского программного обеспечения и соответствует требованиям импортозамещения. Помимо лицензионного ПО, разрабатываемая платформа будет доступна в составе программно-аппаратных комплексов для ИИ-задач с поставкой по подписке. По словам Cloud.ru, новая платформа обеспечит крупному бизнесу и государственным организациям возможность использования ИИ-сервисов и полного набора инструментов публичного облака Cloud.ru Evolution on-premise.
10.04.2025 [17:18], Андрей Крупин
Российская служба каталогов MultiDirectory стала доступна в версии Enterprise с расширенным набором функцийКомпания «Мультифактор» сообщила о выпуске Enterprise-версии службы каталогов MultiDirectory. В отличие от свободного распространяемой Community-сборки, коммерческое решение имеет расширенные функциональные возможности и предполагает техническое сопровождение со стороны разработчика. MultiDirectory представляет собой инструмент для аутентификации и авторизации пользователей в корпоративной среде с использованием протоколов LDAP/LDAPS. Продукт структурно адаптирован под Active Directory, что позволяет использовать его в средах, где требуется совместимость с этой службой. Отечественная разработка обеспечивает централизованное управление учётными записями, гибкую настройку политик безопасности, двухфакторную аутентификацию, интеграцию с DNS-сервером Bind9. Решение поддерживает взаимодействие с рабочими станциями на базе Windows, macOS, Linux и может быть интегрировано с различными сторонними системами в IT-инфраструктуре организации.
Пользовательский интерфейс MultiDirectory (источник изображения: multidirectory.ru) Помимо основных возможностей, Enterprise-версия службы каталогов MultiDirectory включает в себя постоянное внедрение новых функций вроде поддержки доверия доменов, гибкой ролевой модели и контроля сессий пользователей, гарантированную техническую поддержку от разработчиков «Мультифактор», прямой доступ к экспертам через e-mail и телефон, а также конкретные сроки исправления багов и регулярные обновления.
Сравнение Community- и Enterprise-версий MultiDirectory (источник изображения: multidirectory.ru) MultiDirectory в полной мере отвечает задачам импортозамещения и может использоваться заказчиками при реализации программ по переходу на отечественные продукты с решений зарубежных разработчиков.
10.04.2025 [15:01], Руслан Авдеев
В Эдинбургском университете заработал ИИ-кластер на базе Cerebras CS-3Эдинбургский университет и Cerebras Systems развернули в суперкомпьютерным центре EPCC кластера из четырёх ИИ-систем CS-3 на базе царь-ускорителей WSE-3. Новые мощности являются частью Edinburgh International Data Facility. По словам EPCC, это крупнейший кластер CS-3 в Европе. EPCC уже имеет опыт работы с системами CS-1 и CS-2. В Cerebras заявили, что гордятся расширением сотрудничества с EPCC, которое поможет стать Великобритании одним из ключевых мировых ИИ-хабов. Как заявляют в EPCC, ИИ сегодня изменяет все сферы жизни, поэтому новые системы помогут университетам, государственным организациям и компаниям обучать и использовать ИИ-модели на скоростях и с лёгкостью, недоступной другим ИИ-решениям. Платформы Cerebras оптимизированы не только для масштабного обучения моделей, но и для сверхбыстрого инференса — пользователям кластера теперь доступна платформа-рекордсмен Cerebras AI Inference. Системы CS-3 способны выдавать до 2000 токенов/с для популярных ИИ-моделей.
Источник изображения: Nadia Ramella/unsplash.com С новыми кластерами на основе Cerebras CS-3, EPCC сможет обучать модели от 240 млрд до 1 трлн параметров, а также ежедневно тюнинговать модели с 70 млрд параметров. Лёгкость использования технологий Cerebras позволяет использовать ИИ-модели и в дисциплинах, не относящихся к компьютерным наукам. Технологии Cerebras обеспечивают линейную масштабируемость, что ускоряет инновации и повышает продуктивность команды EPCC, говорится в сообщении. Эдинбургский университет считается одним из лидеров в разработке ИИ-систем в последние 60 лет. Системы CS-2 в распоряжении EPCC уже позволили исследователям разработать высокоэффективное ПО для инференса для больших языковых моделей (LLM) — как для местного применения, так и для помощи исследователям из Индии в разработке ИИ-моделей для материаловедения и из Швейцарии — для адаптации LLM к местному диалекту немецкого языка. Кроме того, платформы CS-3 с миллионами вычислительных ядер позволят продолжить исследования EPCC в областипараллельных вычислений и энергоэффективности.
10.04.2025 [13:27], Владимир Мироненко
Cloud.ru готовит решение полного цикла для работы с ИИ в облакеПровайдер облачных и ИИ-технологий Cloud.ru анонсировал Cloud.ru Evolution AI Factory, цифровую среду для разработки приложений и агентов на основе ИИ в облаке, которая объединяет облачные ИИ- и ML-инструменты для работы с генеративными нейросетями и управления жизненным циклом ИИ-приложений. Это универсальная среда с широким спектром возможностей: от обучения моделей до запуска мультиагентных систем. С помощью Cloud.ru Evolution AI Factory компании смогут создавать собственные ИИ-приложения по предлагаемым готовым шаблонам или работать с кастомизированными ИИ-моделями. Благодаря удобному набору технологий и встроенных ассистентов с решением можно работать даже без специальных навыков. Использование Cloud.ru Evolution AI Factory позволит компаниям значительно снизить затраты на вычислительную инфраструктуру, повысить эффективность работы и сократить сроки вывода новых продуктов на рынок. Как сообщил глава Cloud.ru, решение будет доступно клиентам этим летом с полностью готовой инфраструктурой, сервисами и продуктами для простого и быстрого создания ИИ-приложений. Платформа включает:
Сообщается, что новое решение позволяет объединить в Cloud.ru не только инструменты для создания ИИ-приложений, но и независимых разработчиков ПО, чтобы упростить работу с облаком и бизнеса в целом.
10.04.2025 [12:12], Сергей Карасёв
Cloud.ru: почти две трети российских IT-специалистов доверяют ИИПровайдер облачных сервисов Cloud.ru обнародовал результаты исследования, посвящённого использованию средств ИИ российскими IT-специалистами. Выяснилось, что более 70 % респондентов применяют ИИ-сервисы как минимум раз в неделю, а 39 % разработчиков ПО используют такие инструменты ежедневно. Опубликованные цифры получены в ходе опроса разработчиков, тестировщиков, аналитиков данных и представителей других IT-специальностей с разным уровнем подготовки со всей России. Большинство респондентов отмечают, что навыки работы с ИИ становятся всё более значимыми на рынке труда. В частности, 70 % участников опроса периодически встречают в вакансиях обязательное требование владеть навыками и инструментами ИИ, а 22 % респондентов сталкиваются с подобными требованиями регулярно. Практически две трети — 62 % — IT-специалистов в России доверяют ИИ как напарнику. Почти половина опрошенных, в чьих компаниях активно поддерживается использование ИИ, оценили доверие к технологии наивысшим баллом. Вместе с тем 46 % респондентов больше доверяют российским ИИ-сервисам, тогда как одинаковое доверие к отечественным и зарубежным инструментам проявляют менее трети специалистов — около 31 %. Среди наиболее популярных сценариев использования ИИ названы (респонденты могли выбирать несколько ответов):
В целом, как сказано в исследовании, применение ИИ помогает российским IT-специалистам работать быстрее и эффективнее, минимизирует усилия, избавляет от рутины, повышает чувство уверенности и комфорта, освобождая больше времени для профессиональной реализации и решения интересных мотивирующих задач.
10.04.2025 [09:14], Владимир Мироненко
ZeroPoint Technologies и Rebellions займутся разработкой ИИ-ускорителей со «сжимаемой» памятьюШведская компания ZeroPoint Technologies, специализирующаяся на создании решений для оптимизации памяти, объявила о стратегическом альянсе с южнокорейским разработчиком ИИ-чипов Rebellions с целью разработки ИИ-ускорителей для инференс. Компании планируют представить новые продукты в 2026 году, обещая «беспрецедентную производительность в пересчёте на токены в секунду на Вт (TPS/W)», пишет EE Times. Компании планируют увеличить эффективную пропускную способность и ёмкость памяти для нагрузок инференса, используя технологии сжатия, уплотнения и управления памятью от ZeroPoint Technologies. По словам генерального директора ZeroPoint Technologies Класа Моро (Klas Moreau), аппаратная оптимизация работы с памятью на уровне ЦОД позволит увеличить адресуемую ёмкость с ускорением работы почти в 1000 раз по сравнению с использованием программного сжатия. Компании планируют улучшить показатели токенов в секунду на Вт без ущерба для точности, используя сжатие модели без потерь для уменьшения её размера и сокращения использования энергии, необходимой для перемещения компонентов модели. Гендиректор Rebellions Сонхён Пак (Sunghyun Park) указал, что партнёрство позволит компаниям переопределить возможности инференса, предоставляя более умную, экономичную и устойчивую ИИ-инфраструктуру. Моро ранее заявил, что более 70 % данных, хранящихся в памяти, являются избыточными, что позволяет полностью избавиться от них, добившись сжатия без потерь полезной информации. Такая технология сжатия должна выполнять ряд специфических действий в пределах наносекунды, т.е. всего нескольких тактов: «Во-первых, она должна отрабатывать сжатие и распаковку. Во-вторых, она должна уплотнять полученные данные, собирая небольшие фрагменты в единичную линию кеша, чтобы значительно улучшить видимую пропускную способность памяти, и, наконец, она должна бесперебойно управлять данными, отслеживая все фрагменты. Чтобы минимизировать задержку, такой подход должен работать с гранулярностью линий кеша — сжимая, уплотняя и управляя данными в 64-байт фрагментах — в отличие от гораздо больших блоков 4–128 Кбайт, используемых традиционными методами сжатия вроде ZSTD и LZ4». По словам Моро, благодаря этой технологии, для базовых рабочих нагрузок в ЦОД гиперскейлера адресуемая ёмкость памяти и пропускная способность могут быть увеличены в два-четыре раза, производительность на Вт может увеличиться на 50 %, а совокупная стоимость владения (TCO) может быть значительно снижена. А для специализированных нагрузок, таких как большие языковые модели (LLM), интеграция программного сжатия в сочетании с встроенной аппаратной декомпрессией (что минимизирует любую дополнительную задержку) уже продемонстрировала прирост примерно на 50 % в адресуемой ёмкости памяти, пропускной способности и токенах в секунду. Моро утверждает, что грядущая интеграция аппаратной (де-)компрессии обещает ещё более существенные улучшения. Например, для базовых ИИ-нагрузок кластер со 100 Гбайт физической памяти благодаря использованию этой технологии будет функционировать так, как если бы у него было 150 Гбайт памяти. «Это не только представляет собой миллиарды долларов потенциальной экономии, но и может повысить производительность сложных ИИ-моделей», — заявил Моро. «Эти достижения обеспечивают надёжную основу для компаний, производящих чипы ИИ, позволяя бросить вызов доминированию таких гигантов отрасли, как NVIDIA», — добавил он.
09.04.2025 [21:55], Владимир Мироненко
Google представила ИИ-ускоритель TPU v7 Ironwood, созданный специально для инференса «размышляющих» моделейКомпания Google Cloud представила тензорный ускоритель TPU седьмого поколения Ironwood, который охарактеризовала как свой самый производительный и масштабируемый настраиваемый ИИ-ускоритель на сегодняшний день и первый среди её чипов, разработанный специально для инференса. Новый чип представляет собой важный поворот в десятилетней стратегии Google по разработке ИИ-чипов, отметил ресурс VentureBeat. В то время как предыдущие поколения TPU были созданы в первую очередь для рабочих нагрузок обучения и инференса, Ironwood — первый чип, специально созданный для инференса. Как пояснила Google, Ironwood знаменует значительный сдвиг в развитии ИИ и инфраструктуры — переход от простых ИИ-моделей, которые просто предоставляют информацию в режиме реального времени, к моделям, которые обеспечивают проактивную генерацию идей и интерпретацию данных. Компания назвала этот период «эпохой инференса», когда ИИ-агенты будут активно извлекать и генерировать данные, чтобы совместно предоставлять информацию и ответы, а не просто «голые» сведения. Ironwood разработан в соответствии со сложными вычислительными и коммуникационными требованиями «моделей мышления», которые охватывают большие языковые модели (LLM), смешанные экспертные модели (MoE) и сложные задачи для рассуждения. Эти модели требуют массивной параллельной обработки и эффективного доступа к памяти. В частности, Ironwood разработан для минимизации перемещения данных и задержек на чипе при выполнении массивных тензорных манипуляций. Требования размышляющих моделей к вычислительным мощностям выходят далеко за рамки возможностей любого отдельного чипа. Google Cloud Ironwood будет поставляться в двух конфигурациях: с 256 или с 9216 чипами. Один чип может похвастаться пиковой вычислительной мощностью 4614 Тфлопс (FP8), а кластер из 9216 чипов мощностью порядка 10 МВт выдаёт в общей сложности 42,5 Эфлопс. Ironwood оснащён усовершенствованным блоком SparseCore, предназначенным для ускорения работы с ИИ-моделями, которые используются в системах ранжирования и рекомендаций. Расширенная реализация SparseCore в Ironwood позволяет ускорить более широкий спектр рабочих нагрузок, выйдя за рамки традиционной области ИИ в финансовые и научные сферы. Каждый чип оснащен 192 Гбайт памяти HBM, что в шесть раз больше, чем у TPU v6 Trillium. Пропускная способность памяти достигает 7,2 Тбайт/с на чип, что в 4,5 раза больше, чем у Trillium. Также используется межчиповый интерконнект Inter-Chip Interconnect (ICI) с пропускной способностью 1,2 Тбайт/с в дуплексе, что в 1,5 раза больше, чем у Trillium. Наконец, самое важное в эпоху ограниченных по мощности ЦОД — Ironwood обеспечивает вдвое большую производительность на Вт по сравнению с Trillium, а в сравнении с самым первым TPU от 2018 года он почти в 30 энергоэффективнее. Для Ironwood используется СЖО. С Ironwood разработчики также могут задействовать программный стек Pathways от Google DeepMind, чтобы использовать объединённую вычислительную мощность десятков тысяч TPU Ironwood. Как сообщается, Ironwood будет доступен клиентам Google и её собственным разработчикам в конце 2025 года. Google зафиксировала 10-кратный рост спроса на ИИ-вычисления за последние восемь лет. Как отметил ресурс VentureBeat, перенос Google фокуса на оптимизацию инференса имеет смысл. Обучение производится редко, а операции инференса — миллиарды раз в день. Экономика ИИ всё больше связана с затратами на инференс, особенно по мере того, как модели становятся всё более сложными и требующими больших вычислительных ресурсов.
09.04.2025 [17:48], Руслан Авдеев
ИИ Google Gemini поможет переписать приложения для мейнфреймов и перенести их в облакоНезадолго до анонса новых мейнфреймов IBM z17 компания Google анонсировала новые ИИ-инструменты на основе моделей Gemini и других технологий для модернизации инфраструктуры и переносу нагрузок с в облако Google Cloud. Google Cloud Mainframe Assessment Tool (MAT) на основе ИИ-моделей Gemini уже доступен. Инструмент позволяет оценить и проанализировать общее состояние мейнфреймов, включая приложения и данные. Это даст возможность принимать информированные решения по оптимальной модернизации. MAT обеспечивает глубокий анализ кода, генерирует чёткие объяснения его работы, автоматизирует создание документации и др. Это позволяет ускорить понимание кода мейнфреймов и стимулирует процесс модернизации. Google Cloud Mainframe Rewrite на основе моделей Gemini позволяет модернизировать приложения для мейнфреймов (инструмент доступен в превью-режиме). Он помогает разработчикам переосмыслить и преобразовать код для мейнфреймов, переписав его на современные языки программирования вроде Java и C#. Mainframe Rewrite предлагает IDE для модернизации кода, тестирования и развёртывания модернизированных приложений в Google Cloud. Наконец, чтобы снизить риски, возникающие при модернизации, предлагается инструмент Google Cloud Dual Run для глубокого тестирования, сертификации и оценки модернизированных приложений. Инструмент позволяет проверить корректность, полноту и производительность модернизированного кода в ходе миграции и до того, как новое приложение заменит старое. Dual Run сравнивает данные, выдаваемые старой и новой системами, для поиска отличий. Имеются и дополнительные инструменты, разработанные партнёрами Google. Так, Mechanical Orchard предлагает платформу для быстро переписывания приложений на COBOL на современные языки, включая Java, Python и др., без изменения бизнес-логики. Решение позволяет «пошагово» переписывать фрагменты приложений с помощью систем генеративного ИИ с сохранением функциональности и тестировать корректность их работы. Основная цель — создать для облака функциональный эквивалент устаревших решений. Кроме того, в рамках новой программы Google Mainframe Modernization with Gen AI Accelerator компания привлекла Accenture, EPAM и Thoughtworks, которые помогут организациям мигрировать с мейнфреймов. На первом этапе производится анализ кода с помощью MAT и Gemini. На втором реализуется пилотный проект с проверкой работоспособности нового кода. На третьем осуществляется полномасштабная миграция в облако. Первые клиенты могут бесплатно (без учёта расходов на Google Cloud) оценить решения в течение 4-8 недель. Мейнфреймы ещё рано списывать со счетов. Согласно данным опроса Kyndryl 500 топ-менеджеров ИТ-индустрии, многие организации интегрируют мейнфреймы с публичными и частными облачными платформами и совершенствуют свои программы модернизации, перемещая некоторые рабочие нагрузки с мейнфреймов или обновляя их.
09.04.2025 [17:03], Руслан Авдеев
NVIDIA и Cassava Technologies построят в Африке ИИ-фабрику за $720 млнАфриканская технологическая компания Cassava Technologies может инвестировать до $720 млн в первую в Африке «ИИ-фабрику» на базе решений NVIDIA, сообщает Bloomberg. Действующая на территории всего африканского континента компания зимбабвийского происхождения намерена развернуть ИИ-кластеры и сервисы в Южной Африке, Египте, Нигерии, Кении и Марокко. Как сообщает представитель Cassava, если компания не сделает первый шаг в деле инвестиций в ИИ, какими бы ограниченными они ни были, нельзя рассчитывать, что это сделают и другие. В компании уверены, что нельзя позволить, чтобы Африка осталась позади в деле мирового развития искусственного интеллекта. «ИИ-фабрика» Cassava рассчитана на исследователей в университетах, стартапы и разработчиков в самых разных секторах — здравоохранении, финтехе, государственном управлении. Первый кластер из 3 тыс. ускорителей NVIDIA к июню будет развёрнут в Южной Африке. В течение трёх-четырёх лет Cassava рассчитывает довести общее количество ускорителей в Африке до 12 тыс. Впрочем, сами ускорители, по словам компании — это лишь основа, а инвестиции в целом направлены на создание ИИ-экосистемы. Кроме того, компания рассчитывает продавать избыточные вычислительные мощности другим заказчикам со всего мира.
09.04.2025 [13:30], Сергей Карасёв
Британское ИИ-облако NexGen Cloud привлекло на развитие $45 млнКомпания NexGen Cloud из Великобритании, по сообщению ресурса Datacenter Dynamics, осуществила раунд финансирования Series A, в рамках которого на дальнейшее развитие привлечено $45 млн. В качестве инвесторов выступили преимущественно частные лица и семейные трасты, однако подробности о них не разглашаются. Стартап NexGen Cloud был основан в 2020 году. Компания начинала свою деятельность как поставщик облачной инфраструктуры для блокчейн-приложений, но позднее переориентировалась на стремительно развивающуюся отрасль ИИ. В частности, была развёрнута облачная платформа GPU-as-a-Service (GPU как услуга). У NexGen Cloud нет собственных дата-центров. Вместо этого стартап заключил долгосрочные соглашения на использование GPU-ресурсов с существующими гиперскейлерами. Эти аппаратные мощности NexGen Cloud затем предлагает клиентам, которым нужен более гибкий подход к обучению ИИ-моделей и инференсу. Ресурсы GPU предоставляются через платформу Hyperstack: утверждается, что на сегодняшний день она насчитывает более 10 тыс. пользователей, включая Red Hat, Ingenix.AI, Tyne и ArchiLabs.
Источник изображения: NexGen Cloud В конце 2023 года NexGen Cloud объявила о намерении инвестировать $1 млрд в создание европейского ИИ-супероблака, насчитывающего 20 тыс. ускорителей NVIDIA H100. Привлечённые в ходе раунда финансирования Series A средства стартап намерен направить на развитие партнёрских отношений, которые «помогут улучшить доступ к вычислительным мощностям для ИИ». Кроме того, компания планирует запустить инфраструктурные услуги и новые продукты, включая систему Fine-Tuning-as-a-Service, призванную повысить эффективность предварительно обученных моделей ИИ. |
|


