Материалы по тегу: разработка

11.10.2024 [15:51], Руслан Авдеев

Минцифры РФ готовит единое регулирование репозиториев кода в России

В России пересмотрели планы создания единого репозитория ПО с открытым кодом. По данным «Коммерсанта», проект, рассматривавшийся с 2020 года, отклонён. Вместо этого готовится единое регулирование существующих в стране разнородных хранилищ. Предполагается, что нормы регулирования будут включать единые стандарты обеспечения кибербезопасности — это должно обеспечить «минимально приемлемый» уровень защиты данных.

 Источник изображения: Praveen Thirumurugan / Unsplash

Источник изображения: Praveen Thirumurugan / Unsplash

Как сообщает издание, в недрах Минцифры готовится документ, описывающий регулирование деятельности российских репозиториев. Говорится, что решение об отказе от единого хранилища кода уже принято, поэтому прорабатывается концепция параллельного функционирования нескольких репозиториев с едиными требованиям к их безопасности.

В 2020 году в России начали продвигать идею создания российского аналога GitHub, Минэкономики намеревалось выделить на эти цели 2,1 млрд руб. Тогда эксперты сомневались, что такой проект будет востребованным, однако последующая блокировка со стороны GitHub показала необходимость создания собственной экосистемы.

В марте 2024 года стало известно, что проект единого отечественного аналога GitHub заморожен из-за отсутствия финансирования. Параллельно крупные IT-игроки в РФ стали создавать собственные альтернативы GitHub. Сейчас некоторые эксперты придерживаются мнения, что требования к репозиториям должны носить лишь рекомендательный характер, при этом стандарты должны идти и «на экспорт».

Постоянный URL: http://servernews.ru/1112330
06.10.2024 [22:58], Владимир Мироненко

Cosmos для ИИ: VAST Data сформировала сообщество ИИ-специалистов, к которому уже присоединились NVIDIA, xAI, Supermicro, Cisco и др.

Компания VAST Data, специализирующаяся на разработке инфраструктуры для ИИ, объявила о создании Cosmos — онлайн-сообщества, предназначенного для объединения ИИ-специалистов из разных отраслей. Учитывая стремительный темп изменений на рынке ИИ, оставаться в курсе последних достижений может быть непростой задачей, отметила VAST Data, добавив, что компании спешат внедрить ИИ, чтобы трансформировать свою деятельность. При этом ИИ-специалисты сталкиваются со сложными проблемами, требующими постоянного обучения и адаптации.

VAST Data сообщила, что сообщество Cosmos предоставит специалистам по ИИ возможность общаться, делиться передовым опытом и имеющимися знаниями. Благодаря обсуждениям в реальном времени, практическим занятиям и библиотеке ресурсов Cosmos поможет компаниями добиться успеха в их проектах по развитию ИИ, независимо от их сложности.

В качестве платформы для общения выбран Discord. Для обучения предлагаются практические лаборатории Cosmos Lab, где будет возможность ознакомиться с реальными примерами работы над ИИ под руководством экспертов, которые понимают аспекты развёртывания таких решений. Лаборатории призваны помочь специалистам углубить свои навыки в интерактивной среде. Центральным узлом сообщества станет форум Discourse. Это будет место для объёмного контента, включая подробные статьи, обмен знаниями, календари событий и презентации поставщиков. «Именно здесь Cosmos превращается в нечто большее, чем просто чат — это библиотека знаний, созданная сообществом для сообщества», — отметила VAST Data.

 Источник изображения: VAST Data

Источник изображения: VAST Data

VAST Data также уточнила, что Cosmos предназначено не только для тех, кто уже является экспертом: «Независимо от того, возглавляете ли вы команду ИИ, являетесь ли вы студентом, интересующимся тем, как ИИ повлияет на вашу будущую карьеру, или только начинаете развёртывать свою первую модель, Cosmos предлагает пространство, где вы можете учиться, сотрудничать и расти».

Соучредитель VAST Data Джефф Денворт (Jeff Denworth) сообщил ресурсу The Register, что одной из моделей функционирования нового сообщества является организация Open Compute Project, занимающаяся разработкой оборудования и лучших практик с помощью совместных усилий организаций-членов, выкладывающих свои решения в open source. Ещё один ориентир для Cosmos — Конференция RSA (RSA Conference), на которой обсуждаются технологии современной защиты информационных систем, проблемы безопасности, тенденции развития сетевых угроз и вредоносных программ и т.д.

Денворт также сообщил, что был разработан кодекс поведения участника и начался набор экспертов для руководства контентными треками. На должность менеджера сообщества назначен Джонас Росланд (Jonas Rosland), занимавший должности менеджера сообщества в VMware, CIQ и Dell EMC. К сообществу уже присоединились NVIDIA, xAI, Supermicro, Deloitte, WWT, Cisco, CoreWeave, Core42, NEA, Impetus, Run:AI и Dremio.

 Источник изображения: VAST Data

Источник изображения: VAST Data

Параллельно VAST Data объявила о новом сотрудничестве с NVIDIA, Cisco и Equinix, пишет ресурс Blocks and Files. На прошедшей неделе VAST Data представила решение VAST InsightEngine with NVIDIA для безопасного получения, обработки и извлечения всех корпоративных данных (файлов, объектов, таблиц и потоков) в режиме реального времени. В нём VAST Data интегрировала своё ИИ-хранилище и обработку данных с ускорителями NVIDIA и микросервисами NIM. Теперь ускорители могут напрямую работать с данными в массивах VAST, а микросервисы NIM работают непосредственно внутри программной среды VAST.

В свою очередь, Cisco в рамках сотрудничества с VAST Data планирует предлагать ПО VAST Data Platform на некоторых серверах UCS в качестве готовой интегрированной системы. Серверы Cisco UCS с ПО VAST Data и Cisco Nexus HyperFabric AI будут доступны в I половине 2025 года. А Equinix, которая уже предлагает оборудование Dell, NetApp, PureStorage и Seagate (Lyve Cloud) в 26 объектах IBX, планирует добавить платформу VAST для систем NVIDIA DGX, включая SuperPOD, а также платформу NVIDIA AI Enterprise. Сотрудничество с NVIDIA, Cisco и Equinix позволит VAST Data расширить возможности поставок своего продукта на рынки различных стран.

Постоянный URL: http://servernews.ru/1112064
05.10.2024 [15:36], Владимир Мироненко

Accenture сформировала подразделение NVIDIA Business Group и обучит 30 тысяч сотрудников полному стеку ИИ-технологий NVIDIA

Глобальная консалтинговая компания Accenture и NVIDIA объявили о расширении партнёрства, в рамках которого Accenture создала новую бизнес-группу Accenture NVIDIA Business Group с целью помочь предприятиям быстро внедрить и масштабировать ИИ-решения. Также будет проведено обучение 30 тыс. сотрудников Accenture по всему миру полному набору ИИ-технологий NVIDIA. Это одна из крупнейших сделок на рынке.

Новая структура Accenture сосредоточится на стимулировании корпоративного внедрения так называемых «агентных систем ИИ», используя преимущества ключевых программных платформ NVIDIA. Как сообщает ресурс CRN, директор по ИИ Accenture Лань Гуань (Lan Guan) заявил на встрече с журналистами, что агентные системы включают в себя «армию ИИ-агентов», которые работают вместе с людьми, чтобы «принимать решения и точно выполнять задачи даже в самых сложных рабочих процессах».

Согласно пресс-релизу, агентные системы — это прорыв в области генеративного ИИ. Они могут автономно действовать в соответствии с намерениями пользователя, создавать новые рабочие процессы и предпринимать действия с учётом окружения, что может целиком реорганизовать бизнес-процессы или отдельные функции. По словам Гуаня, в отличие от чат-ботов, таких как ChatGPT, ИИ-агенты не требуют запросов и подсказок от людей и не предназначены для автоматизации уже существующих бизнес-шагов.

 Источник изображения: Accenture

Источник изображения: Accenture

В своей работе Accenture NVIDIA Business Group будет полагаться на собственную платформу AI Refinery, которая использует полный стек NVIDIA AI, включая NVIDIA AI Foundry, AI Enterprise и Omniverse для продвижения таких направлений, как реорганизация процессов, моделирование на основе ИИ и суверенный ИИ. AI Foundry помогает в разработке кастомных ИИ-моделей, предоставляя доступ к базовым моделям, фреймворкам и инструментам. AI Enterprise предлагает микросервисы и инструменты для разработки, оптимизации и развёртывания приложений ИИ. Наконец, Omniverse ориентирована на создание цифровых двойников производственных процессов и т.п.

Accenture также заявила, что открывает сеть инженерных ИИ-центров в Сингапуре, Токио, Малаге и Лондоне, которые помогут ей во внедрении агентных систем ИИ. Эти центры станут частью Центра передового ИИ Accenture (Center for Advanced AI) в дополнение существующим филиалам в Маунтин-Вью и Бангалоре, и будут сосредоточены на подборе и тюнинге базовых моделей с последующим крупномасштабном инференсом. Кроме того, Accenture предложит NVIDIA NIM Agent Blueprints, шаблоны ИИ-приложений NIM Agent Blueprints для типовых бизнес-задач.

 Источник изображения: Simon Kadula / Unsplash

Источник изображения: Simon Kadula / Unsplash

В частности, Accenture подготовит Blueprint для моделирования производств с использованием парка роботов, который объединяет NVIDIA Omniverse, Isaac и Metropolis. Accenture планирует использовать эти новые возможности в Eclipse Automation, принадлежащей её компании по автоматизации производств. Это позволит вполовину ускорить подготовку проектов и почти на треть сократить время развёртывания.

Следует отметить, что на прошлой неделе Accenture сообщила о том, что в 2024 финансовом году, закончившемся 31 августа, у неё было на $3 млрд новых заказов на генеративный ИИ, $1 млрд из которых пришёлся на IV квартал. Для NVIDIA партнёрство с Accenture является частью реализации плана по расширению влияния на глобальных системных интеграторов (GSI) и другие многонациональные компании, которые имеют значительное влияние на предприятиях. Например, Infosys год назад заявила, что обучит и сертифицирует в рамках партнёрства с NVIDIA 50 тыс. сотрудников, которые изучат особенности аппаратных и программных ИИ-решений NVIDIA.

Постоянный URL: http://servernews.ru/1112025
27.09.2024 [21:50], Руслан Авдеев

Ampere создаст кастомные Arm-процессоры для Uber

Компания Uber намерена использовать кастомные Arm-процессоры Ampere Computing в облаке Oracle Cloud Infrastructure (OCI). В частности, компании займутся оптимизацией чипов для ИИ-задач. До недавнего времени Uber использовала преимущественно собственные ЦОД, но в 2022 году приняла решение перенести большую часть задач в облака.

С ростом количества ЦОД и зон доступности управлять IT-инфраструктурой Uber становилось всё сложнее. На ввод в эксплуатацию новой зоны порой требовались месяцы и сотни специалистов, поскольку управление серверами происходило чуть ли не «вручную», а инструменты автоматизации часто подводили. Рассмотрев различные варианты развития, Uber постепенно пришла к сотрудничеству с Ampere, Goolge и Oracle. А в феврале 2023 года компания подписала крупные семилетние облачные контракты с Google и Oracle.

По данным Uber, водители и курьеры компании выполняют более 30 млн заказов ежедневно. Для этого требуется большая IT-инфраструктура, например, для оптимизации маршрутов, в том числе с применением ИИ-технологий — ежесекундно к ИИ-моделям приходит 15 млн запросов. По оценкам Uber и Ampere, перенос нагрузок в OCI не только снизил инфраструктурные затраты, но и уменьшил энергопотребление на 30 %. Сейчас компании совместно работают над новыми чипами, выявляя, какие изменения в микроархитектуру стоит внести, чтобы будущие процессоры оптимально подходили для задач Uber.

 Источник изображения: Denys Nevozhai/unsplash.com

Источник изображения: Denys Nevozhai/unsplash.com

Собственные Arm-процессоры разрабатывают AWS, Google Cloud и Microsoft Azure — Graviton, Axion и Cobalt 100 соответственно. Однако кастомизацией под конкретного клиента, пусть даже крупного, они не занимаются. Тем не менее, эксперты IDC считают, что облачные клиенты безусловно выиграют от совместной подготовки с разработчиками чипов новых полупроводниковых решений. Клиенты могут обладать специфическими знаниями и интеллектуальной собственностью, но как правило не имеют возможности самостоятельно вывести на рынок готовый продукт.

Сейчас Uber переносит тысячи микросервисов, многочисленные платформы хранения данных и десятки ИИ-моделей в OCI. Компания уже перевела значительную часть бессерверных рабочих нагрузок на платформы на базе Ampere. Впрочем, дело не ограничивается только Ampere — компания также активно использует инстансы на базе чипов AMD.

Постоянный URL: http://servernews.ru/1111653
25.09.2024 [20:40], Владимир Мироненко

Yandex Cloud инвестирует 42 млрд рублей в расширение и запуск новых направлений

Облачная платформа Yandex Cloud объявила о планах увеличить инвестиции в развитие существующих и создание новых сервисов и технологий. В течение двух лет, с 2025 по 2026 год, на эти цели будет выделено 42 млрд руб., что почти вдвое больше затрат в 2023–2024 гг., составивших 22 млрд руб.

 Источник изображений: Yandex Cloud

Источник изображений: Yandex Cloud

Рост инвестиций связан с высокими темпами развития платформы, увеличением количества пользователей и расширением списка приоритетных направлений, в который вошли ИИ-сервисы, сервисы для управления информационной безопасностью и средства обеспечения полного цикла разработки.

Одно из новых направлений Yandex Cloud — сервисы для работы с ИИ-технологиями. Представленная сегодня в рамках Yandex Scale 2024 платформа AI Studio позволяет в рамках единого интерфейса создавать приложения на базе различных ИИ-технологий Яндекса: сетей YandexGPT и YandexART, технологий распознавания и синтеза речи и т.д. Платформа включает SDK с готовыми образцами кода, которые позволят клиентам ускорить процесс разработки.

Также в платформе доступен AI Playground — сервис для тестирования ML-моделей в режиме диалога, который позволяет подобрать оптимальные промпты и настройки моделей для своих проектов. В будущем AI Playground предложит и другие ML-технологии, в том числе модели для синтеза и распознавания речи Yandex SpeechKit. Платформа, уже доступная всем клиентам Yandex Cloud, в дальнейшем будет пополняться новыми возможностями. Компания также планирует делиться собственными практиками по внедрению ИИ, чтобы помочь заказчикам быстрее получать выгоду от его использования.

Второе направление инвестиций — укрепление информационной безопасности. Yandex Cloud будет развивать существующие решения в этой сфере, например сервисы для защиты от DDoS-атак, а также создавать новые. Так, была представлена единая «приборная панель» Security Deck, которая позволяет управлять безопасностью облачной инфраструктуры и наблюдать за ключевыми параметрами. С её помощью можно выявлять уязвимости, отслеживать чувствительные данные, а также управлять правами доступа сотрудников, чтобы снизить риск утечек из облака. Тестирование Security Desk бесплатное — достаточно подать заявку на сайте.

Security Deck объединяет несколько инструментов по управлению безопасностью. Например, модуль Data Security Posture Management (DSPM) предназначен для выявления персональных и других чувствительных данных в инфраструктуре. Он определяет места хранения различных типов конфиденциальной информации (например, ФИО или СНИЛС), что позволяет снизить риск их утечки. А с помощью модуля Cloud Infrastructure Entitlements Management (CIEM) можно проверять права доступа к облачным ресурсам.

Также имеется модуль контроля прозрачности доступа к облачным ресурсам Access Transparency. Он позволяет проверить, для каких целей был предоставлен доступ сотрудников облачной платформы к инфраструктуре — например, для выполнения дополнительной диагностики ИТ-систем инженерами службы поддержки или обновления ПО. Встроенная нейросеть YandexGPT обобщает собранную информацию и предоставляет её в удобном виде.

Ещё одно направление — платформа полного цикла для разработки и сопровождения IT-продуктов SourceCraft. На этой платформе можно будет создавать исходный код, управлять его версиями, тестировать, собирать, развёртывать и сопровождать ПО. Помимо инструментов хранения и ревью кода в SourceCraft будут добавлены функции для непрерывной интеграции и развёртывания ИТ-проектов, безопасной разработки, аудита, логгинга, мониторинга и трейсинга.

Первым компонентом платформы станет представленный ранее сервис Yandex Code Assistant — ИИ-помощник для работы с кодом. С его помощью можно будет по фрагменту кода сгенерировать наиболее вероятное его продолжение. Сервис уже доступен для тестирования на облачной платформе Yandex Cloud. Компания предоставит доступ к SourceCraft внешним пользователям в 2025 году, но уже сейчас можно записаться в лист ожидания.

Также на конференции было объявлено о запуске сервиса по аренде выделенных физических серверов Yandex BareMetal и сервиса Serverless Integrations для ускорения разработки продуктов в облаке. Yandex BareMetal позволит компаниям получить вычислительные мощности для размещения любого ПО, в том числе средств виртуализации. При этом обслуживание оборудования компания берёт на себя.

Yandex BareMetal можно использовать вместе с остальной облачной инфраструктурой Yandex Cloud. Клиенты смогут выбрать необходимую конфигурацию сервера в специальной консоли, а также использовать единый центр поддержки, биллинг и систему управления доступом провайдера. Заявки на бесплатное закрытое тестирование Yandex BareMetal, которое начнётся до конца 2024 года, можно подать уже сейчас.

В свою очередь сервис Serverless Integrations позволит ИТ-специалистам без написания кода автоматизировать рабочие процессы, например, обработку онлайн-заказов и мониторинг систем безопасности, что по данным компании, позволяет ускорить разработку приложений на 10–70 % в зависимости от задач и специфики компании. Serverless Integrations доступен пользователям Yandex Cloud по запросу.

Связать рабочие процессы между собой поможет инструмент Workflows. Достаточно пошагово описать последовательность операций с помощью разметки, и в нужный момент Workflows сам запустит эти процессы и проконтролирует их выполнение. В будущем в Workflows появится визуальный интерфейс, с помощью которого последовательность процессов можно будет составлять из блоков, как в конструкторе. Для автоматизации процессов также есть EventRouter — инструмент для обмена информации между внутренними сервисами о новых событиях в системе.

Постоянный URL: http://servernews.ru/1111531
17.09.2024 [13:20], Руслан Авдеев

ИИ без заморочек: VK запускает ML-платформу, которая не требует IT-навыков

Силами центра аналитических продуктов VK Predict, входящего в группу VK, создана платформа для автоматического создания ML-моделей и работы с ИИ-решениями без глубокого знания информационных технологий. По данным Forbes, AutoML-платформа поможет выстроить стратегии развития, станет подспорьем маркетологам и позволит обучать ИИ-модели с компаниями-партнёрами без обмена закрытыми данными — на основе федеративного обучения. При этом ставка сделана на неспециалистов.

Запускаемая VK платформа, например, позволяет оценивать бизнес-аналитикам рыночные позиции компании, выстроить стратегию развития бизнеса, решать маркетинговые задачи от сегментации аудитории до выявления самых рентабельных клиентов. Платформа подходит для прогнозирования показателей, сортировки данных по группам, включая формирование прогноза выручки той или иной торговой точки или сортировки пользователей по разным критериям. Платформу можно будет использовать в реальных проектах, для дополнительного обучения модели на базе новых источников и сведений. Далее появятся и другие возможности, включая тонкую настройку ИИ-моделей.

 Источник изображения: Possessed Photography / Unsplash

Источник изображения: Possessed Photography / Unsplash

Важной особенностью новой платформы является возможность совместного обучения компаниями общих ML-моделей с вертикальным федеративным обучением. Компании смогут использовать для обучения собственные датасеты, но обмен осуществляется только зашифрованными промежуточными данными — такая схема подходит для компаний разного профиля, включая бизнесы, действующие в сфере интернет-торговли и финтеха. Например, так можно рассчитать эффект от партнёрского маркетинга с общей аудиторией (в связке производитель-ретейлер).

Автоматизации способствует поддержка принципа Low-Code. Целевой аудиторией для платформы считаются любые проекты, имеющие потребность в автоматизации работы с массивами данных, причём в компаниях могут работать специалисты без знаний в области Data Science. Впрочем, такая платформа хорошо подойдёт и экспертам в IT, желающим сэкономить время.

 Источник изображения: Wes Hicks / Unsplash

Источник изображения: Wes Hicks / Unsplash

В VK утверждают, что использование AutoML позволит в разы быстрее внедрять ML-модели, чем раньше. Монетизировать её планируется как по подписке в формате Self-Service, так и продавать в виде ядра для IT-отделов крупных компаний. По некоторым данным, в первом случае речь может идти о сумме от 250 тыс. руб./мес. Кастомизированное решение в варианте on-premise может стоить от 10 млн рублей за проект, без учёта оплаты поддержки и сопровождения.

Эксперты сходятся в том, что подобные платформы вряд ли полностью заменят специалистов Data Science. При этом они смогут оказать им немалую помощь и ускорить вывод ML-моделей на рынок. Опрошенные Forbes эксперты отметили, что AutoML-платформы уже давно и активно применяются в крупных компаниях. Отечественные инструменты такого класса предлагааются в Yandex DataSphere, у «Сбера» есть фреймворк LightAutoML. Также используются открытые решения AutoGluon или FEDOT.

Постоянный URL: http://servernews.ru/1111076
16.09.2024 [13:11], Руслан Авдеев

Microsoft готовит новый «слой безопасности» в Windows для предотвращения инцидентов, сопоставимых по масштабу со сбоем CrowdStrike

Не желая повторения инцидента, который вывел из строя миллионы компьютеров на Windows из-за бага в ПО CrowdStrike, Microsoft собрала ключевых разработчиков решений кибербезопасности на закрытой встрече Windows Endpoint Security Ecosystem Summit, где предложила им новый подход к защите Windows-систем. По данным PC Mag, речь идёт о новой платформе, позволяющей отказаться от доступа антивирусных программ к ядру операционной системы.

В блоге компании по итогам мероприятия сообщается, что Microsoft намерена развивать принципы, уже применяемые в Windows 11 и позволяющие во многих случаях обеспечивать защиту системы без непосредственного доступа к ядру. Инцидент с антивирусным ПО CrowdStrike, затронувший миллионы компьютеров по всему миру, во многом произошёл потому, что ПО имело доступ к ядру ОС. С одной стороны, без подобной функциональности со многими угрозами справиться трудно, с другой — именно из-за неё пользователи увидели «синий экран смерти» на миллионах ПК. Microsoft обвинила в случившемся власти Евросоюза, в своё время вынудившие компанию обеспечить подобный доступ разработчикам антивирусов.

 Источник изображения: Jefferson Santos/unsplash.com

Источник изображения: Jefferson Santos/unsplash.com

Впрочем, ни о каком закрытии доступа к ядру Windows речи пока не идёт. Клиенты и партнёры попросили компанию «предоставить дополнительные возможности обеспечения безопасности вне режима ядра», что позволило бы разработчикам создавать антивирусное ПО, не обращающееся к ядру, по крайней мере — на регулярной основе. В ходе встречи Microsoft и партнёры обсудили требования к новой платформе и основные вызовы, с которыми придётся столкнуться при её разработке. Компания сообщила, что речь идёт о долговременном проекте, в рамках которого Microsoft вместе с партнёрами намерена добиться повышенной надёжности защитного ПО без ущерба безопасности.

При этом Microsoft признала, что все участники саммита согласились с тем, что вендорам антивирусного ПО и клиентам выгодно, когда у них есть выбор различных вариантов для Windows в контексте обеспечения безопасности. Например, ESET прямо заявила, что доступ к ядру должен остаться одной из опций для эффективной защиты от киберугроз. Кроме того, стороны намерены делиться практиками безопасных обновлений ПО. Именно сбой на одном из этапов выпуска обновлений ПО CrowdStrike и привёл к эпохальному сбою, обошедшемуся некоторым компаниям в сотни миллионов долларов.

Постоянный URL: http://servernews.ru/1111022
15.09.2024 [15:06], Сергей Карасёв

Германия выделила почти по €700 тыс. на развитие Samba и FreeBSD

Немецкий фонд STF (Sovereign Tech Fund), сформированный Федеральным министерством экономики и защиты климата Германии (BMWK), по сообщению ресурса Phoronix, выделил €688 800 на развитие проекта с открытым исходным кодом Samba. Деньги получит организация SerNet, курирующая разработку Samba.

Samba — специализированно ПО, которое позволяет обращаться к сетевым ресурсам на различных операционных системах по протоколу SMB/CIFS. Первый выпуск Samba состоялся в 1992 году. Софт работает на большинстве Unix-подобных систем и входит во многие дистрибутивы Linux. Распространяется Samba по условиям лицензии GPL.

В течение следующих 18 месяцев разработчики займутся реализацией ряда инициатив, направленных на повышение безопасности, масштабируемости и функциональности ПО. Это, в частности, прозрачное аварийное переключение, расширения SMB3 UNIX и поддержка SMB поверх QUIC. Улучшения, разработка которых поддерживается STF, призваны гарантировать, что Samba останется надёжным и безопасным решением для организаций, которые полагаются на суверенную ИТ-инфраструктуру, максимально независимую от проприетарного ПО и при этом обеспечивающую оптимальную совместимость.

 Источник изображения: STF

Источник изображения: STF

В августе FreeBSD Foundation, координирующая развитие ОС FreeBSD, также сообщила о выделении фондом STF €688 400 на развитие проекта. Средства, в частности, пойдут на улучшение инструментария разработки ОС, повышение безопасности и закрытие технических долгов. Работы будут проводить в 2024–2025 гг. Кроме того, STF уже вложился в развитие и поддержку GNOME, PHP, FFmpeg, coreutils, systemd, curl, OpenSSH и массу других открытых проектов.

Постоянный URL: http://servernews.ru/1110988
11.09.2024 [09:09], Владимир Мироненко

DevOps в России мигрирует на отечественные ОС, платформы и инструменты

Компания «Экспресс 42» опубликовала результаты ежегодного исследования «Состояние DevOps в России», вышедшего при поддержке Deckhouse, Yandex Cloud, HeadHunter, «OTUS онлайн образование», JUG Ru Group, Avito Tech, «Т-Банк». Благодаря рекордному числу участников — более 4 тыс. человек — в исследовании удалось выявить ключевые закономерности и самые актуальные тренды развития DevOps в России.

Исследование подтвердило рост интереса к DevOps, в том числе в новых отраслях. Хотя тройка лидеров сохраняется с 2020 года, доля ИТ уменьшилась с 45,5 до 36,2 %, доля финансового сектора упала на 2,4 % до 12,4 %, у ретейла равна 7,3 %. Суммарная доля отраслей за пределами ИТ-сферы и финтеха выросла с 39,7 % до 51,4 %.

По сравнению с прошлым годом среди респондентов выросла доля работающих на российские компании — с 85,8 % до 89,4 %. Также увеличилось количество независимых специалистов — с 2,5 % до 3,8 %. Растущий интерес к DevOps отражает и рынок труда. По востребованности DevOps-специалисты уступают только разработчикам – 27,6 % против 40,6 % соответственно. Далее в рейтинге следуют системные аналитики (13,5 %). Вместе с тем бюджет на наём растёт, как и разрыв между количеством вакансий и резюме. То есть кадровый голод не утолён, но ключевые позиции, похоже, были закрыты, сделали вывод в «Экспресс 42».

 Источник изображений: devopsrussia.ru

Источник изображений: devopsrussia.ru

В числе самых востребованных навыков специалистов в этой сфере работодатели указывают работу с Linux (в 4 5% вакансий), Docker (37 %) и Kubernetes (35 %). Важны также компетенции DevOps (23 %), владение Ansible и Phyton (по 22 %), CI/СD и Bash (по 20 %), PostgreSQL (19 %), Git (17 %). Вместе с тем снизилась доля пользователей Debian/Ubuntu с 61,8 до 53,8 % и RHEL — с 49 до 33,1 %. Попутно растёт доля пользователей российских ОС Astra Linux — с 18,3 до 22,5 %; Ред ОС — с 9,1 до 11,2 %; других российских ОС — с 1,9 до 5,6%. Исключение составила ОС «Альт», доля которой упала с 6,6 до 6,2 %.

Исследователи отметили, что большинство российских компаний адаптировалось к изменившимся за последние два года условиям работы. И их фокус смещается с нормализации состояния на развитие. Доля респондентов, выбравших вариант «Сохранить финансовую и операционную стабильность», сократилась с 23 до 19,4 %, в то время как доля выбравших варианты «Продолжить планомерное развитие» и «Воспользоваться появившимися новыми возможностями» увеличилась с 44 до 45,7 % и с 32 до 34,9 % соответственно.

В числе первоочередных задач, которые компании ставят перед своими ИТ-департаментами — улучшение качества разрабатываемых продуктов (59,7 % респондентов), повышение скорости реагирования на запросы от бизнеса (43,6 %), создание новых технологий, которые обеспечивают конкурентное преимущество на рынке (42,1 %). Также отмечено увеличение средств, выделяемых на ИТ. 57,2 % опрошенных, которые ознакомлены с распределением, сообщили об увеличении бюджета на ИТ, а у 26,2 % он остался прежним.

Исследователи отметили рост количества пользователей managed-решений и российских дистрибутивов Kubernetes. Аналитики расценивают это как начало тренда на переход на управляемые решения и российские дистрибутивы. Также отмечено, что классическими оркестраторами стали пользоваться меньше: доля Kubernetes снизилась с 58,3 до 54,4 %, OpenShift — с 15,1 % до 14,1 %, Rancher — с 9 % до 5,7 %. При этом доля отдельных оркестраторов выросла, больше всего у Docker Swarm — с 14,7 % до 18,6 %. Доля респондентов, которые не используют оркестраторы, увеличилась с 18,7 до 24 %, что объясняется распространением DevOps на новые отрасли, где работают с обычными виртуальными машинами без надобности в решениях уровня Kubernetes, поскольку достаточно Docker Swarm.

В числе ключевых функций/компонентов платформ контейнеризации респонденты назвали возможность установки в закрытый контур (49,1 %), централизованное управление множеством кластеров (44,3 %), возможность беспростойных обновлений (41 %), графический интерфейс и удобство и максимальную автоматизацию всех процессов (38,3 %). Наиболее важными аспектами они назвали наличие экосистемы сопутствующего ПО, наличие совместимости с другим ПО и возможность влияния на план развития платформы. При выборе той или иной платформы контейнеризации респонденты руководствуются стоимостью (51,5 %), затратами на обслуживание и эксплуатацию (48,9 %), сложностью внедрения (45, 9%).

Основной ценностью использования платформ респонденты считают сокращение вывода решения на рынок (52,4 %), сокращение затрат на поддержку технологических решений (49 %) и на владение инфраструктурой (44,2 %). В исследовании также была зафиксирована тенденция ухудшения ключевых метрик по всем профилям эффективности DevOps: частота релизов ПО, срок поставки, меньшее время восстановления после инцидентов и т.д.

Самым популярным инструментом DevOps являются облачные решения. В числе ключевых преимуществ PaaS большинство респондентов назвали ускорение создания и масштабирование приложений (40 %), возможность использование всех сервисов у одного провайдера (37 %), гарантию соблюдения SLA (27 %). Вместе с тем треть респондентов предпочитает размещать данные на собственной инфраструктуре (33 %), чуть меньше трети пользуется гибридной средой (30 %). В основном компании используют управляемые сервисы для администрирования виртуальных машин и систем резервного копирования (4 %), развёртывания серверов (37 %), реже сервисы применяются для помощи с процессом миграции (14 %).

В рейтинге популярности PaaS и управляемых сервисы лидируют управляемые SQL (45 %) и оркестраторы (38 %). По-прежнему наименьшее распространение имеют облачные ML-сервисы (8 %) и инструменты для синтеза и распознавания речи (7 %). Ключевые навыки для DevOps-специалиста в облаке включают знание специфики работы в контуре облачного провайдера: управления доступами и безопасностью (57 %), работы с API (62 %), работы с CLI (61 %). Также растёт использование ИИ — 44 % респондентов используют ML/AI-инструменты для решения DevOps-задач и 47 % отмечают их важность в повышении эффективности.

Постоянный URL: http://servernews.ru/1110736
09.09.2024 [12:10], Руслан Авдеев

LLM в комплекте: Red Hat выпустила платформу RHEL AI для работы с генеративным ИИ

Red Hat объявила о запуске платформы Red Hat Enterprise Linux AI (RHEL AI) для создания генеративных ИИ-решений в облачных средах. По данным Silicon Angle, анонсированный три месяца назад пакет ПО сделали общедоступным в ходе мероприятия Red Hat Summit.

Ранее анонсированный пакет включает семейство открытых языковых моделей IBM Granite, а также инструмент настройки моделей InstructLab, разработанный самой RedHat. Всё это объединили в образ RHEL для развёртывания в гибридных облаках и на локальных площадках. В компании сообщили, что RHEL AI упростит и удешевит разработку компактных и недорогих моделей.

Затраты на обучение моделей могут быть очень высокими, в Red Hat сообщают, что на создание некоторых передовых моделей уходит до $200 млн. И это только на обучение, без учёта стоимости самих данных и настройки, критически важной для выполнения специальных задач каждой конкретной компании. В Red Hat уверяют, что будущее за небольшими генеративными ИИ-моделями, большинство которых будет open source.

 Источник изображения: Red Hat

Источник изображения: Red Hat

В компании рассчитывают, что RHEL AI станет основной платформой для создания «бюджетных» и открытых решений. По умолчанию предоставляется библиотека бесплатных LLM Granite общего назначения. InstructLab поможет в тонкой настройке моделей без обширных навыков, связанными с наукой о данных. А интеграция с Red Hat OpenShift AI упростит обучение, настройку и обслуживание моделей. RHEL AI позволит разворачивать генеративный ИИ в непосредственной близости от баз данных и хранилищ компаний.

RHEL AI оптимизирован для развёртывания на новейших серверах Dell PowerEdge и обеспечивает все возможности, предоставляемые подпиской Red Hat, в т.ч. круглосуточную поддержку, расширенную поддержку жизненного цикла моделей и, например, правовую защиту Open Source Assurance. Поскольку RHEL AI фактически является расширением Red Hat Enterprise Linux, дистрибутив можно использовать и на любом другом оборудовании, в том числе в облаках. Решение уже доступно у AWS и IBM Cloud, в Google Cloud и Azure появится возможность использовать его позже в этом году. В IBM Cloud ожидается появление предложения «как услуги» — по подписке в самом облаке, но только в следующем году.

Ранее сообщалось, что для запуска RHEL AI требуются весьма производительные сертифицированные системы с ускорителями, имеющими минимум 320 Гбайт памяти и хранилище от 200 Гбайт. Среди протестированных указаны серверы Dell с четырьмя NVIDIA H100, Lenovo с восемью AMD Instinct MI300X, а также инстансы IBM Cloud GX3. Вскоре обещана поддержка инстансов AWS EC2 P5 с NVIDIA H100 и ускорителей Intel.

Постоянный URL: http://servernews.ru/1110662
Система Orphus