Материалы по тегу: разработка
01.07.2025 [16:55], Сергей Карасёв
«Базальт СПО» приглашает на XXI конференцию разработчиков свободных программКомпания «Базальт СПО» совместно с Институтом программных систем им. А.К. Айламазяна РАН проводит XXI конференцию разработчиков свободных программ. Мероприятие пройдет 3–5 октября 2025 года в г. Переславле-Залесском на базе ИПС РАН. Оргкомитет принимает заявки на доклады по следующим темам:
Тезисы докладов выйдут отдельным сборником и будут опубликованы в национальной библиографической базе данных научного цитирования РИНЦ. Сроки подачи заявокДля докладчиков:
Для слушателей:
Участие для докладчиков и слушателей бесплатное. Трансфер
Проживание выступающих оплачивается организаторами для одного докладчика на доклад. Компенсация проезда докладчиков по территории РФ возможна по дополнительному согласованию с оргкомитетом. Требования к докладамДоклады о проприетарном ПО не допускаются. Для тем о программном обеспечении:
Для OSHW:
Онлайн-трансляция конференции будет доступна на VK Видео и странице конференции. Присоединяйтесь, чтобы обменяться опытом, найти единомышленников и запустить новые проекты.
30.06.2025 [21:20], Владимир Мироненко
Avanpost: в корпоративном сегменте по-прежнему большей частью полагаются на обычные пароли и LDAP
active directory
avanpost
openid
radius
software
аутентификация
информационная безопасность
исследование
пароли
разработка
россия
Согласно исследованию «Лаборатории Касперского», более трети россиян готовы вместо пароля использовать альтернативные способы авторизации. В корпоративном сегменте такой готовности пока не наблюдается, о чём свидетельствуют результаты исследования Avanpost. В рамках исследования специалисты Avanpost рассмотрели самые востребованные классы решений корпоративной инфраструктуры: VPN, VDI, Wi-Fi и сеть; корпоративные коммуникации (почта, ВКС); ERP/ЭДО; Service Desk; АРМы и серверы, а также средства разработки (например, GitLab). По каждому из них оценивалась доля использования пяти методов аутентификации: «обычные» пароли, доменная аутентификация, RADIUS, SAML и OpenID Connect. В исследовании отмечено, что в современных корпоративных системах по-прежнему широко используется аутентификация на основе паролей и LDAP. Основная причина заключается в том, что заказчиками зачастую не предъявляются требования по поддержке коробочными корпоративными решениями современных механизмов аутентификации, говорит компания. Это связано с отсутствием в корпоративных инфраструктурах централизованных современных сервисов Identity Provider (IDP), а также с длительным жизненным циклом (5–10 лет) ранее внедрённых систем. К тому же множество широко распространённых продуктов и платформ проектировались и развивались с учётом архитектуры, заложенной десятки лет назад. ![]() Источник изображения: Bruno Brito / Unsplash В корпоративных системах по-прежнему остаются самым распространённым методом аутентификации традиционные «обычные» пароли, несмотря на агитацию Google, Apple и Microsoft за отказ от них. Во всех проанализированных в исследовании категориях их использование близко к 100 %, несмотря на наличие современных решений. На втором место по распространённости в корпоративном сегменте находится доменная LDAP-аутентификация, хотя это общепризнанный антипаттерн, говорит компания. Особенно широко она используется в инфраструктурном сегменте (АРМы и серверы), а также в корпоративных решениях для VPN, VDI и Wi-Fi-средах с долей до 90–100 %. Это объясняется высокой совместимостью с внутренними сетями и политиками безопасности Microsoft Active Directory и другими решениями экосистемы Microsoft. Протокол SAML (Security Assertion Markup Language) используется в 50–60 % системах ERP и службах поддержки, особенно — в SaaS/PaaS, интегрируемых с корпоративными провайдерами удостоверений, размещёнными во внутренней инфраструктуре, преимущественно за счёт возможности взаимодействия через пользователей. «Особенно удивляет сохраняющаяся тенденция реализовывать поддержку SAML в новых продуктах вместо поддержки более современного протокола OpenID Connect», — сообщили исследователи. OpenID Connect больше всего используют в средствах разработки — до 60 % случаев, тогда как в остальных категориях его доля составляет менее 30 %. При этом использование OpenID Connect в других классах корпоративных решений остаётся на достаточно низком уровне. По итогам исследования в Avanpost пришли к выводу, что корпоративные IT-инфраструктуры по-прежнему находятся в стадии трансформации в вопросах аутентификации. На фоне широкого распространения встроенной парольной и LDAP-аутентификации всё же заметен рост интереса к современным IdP-протоколам OpenID Connect и SAML. Вместе с тем уровень готовности большинства коробочных продуктов к использованию современных протоколов аутентификации оставляет желать. RADIUS по-прежнему широко используются при интеграции с внутренними системами из-за высокой совместимости с ранее закупленным сетевым оборудованием. Хотя большинство корпоративного ПО продолжает полагаться на традиционные схемы аутентификации с паролями и LDAP, и лишь незначительная часть приложений (примерно 5–10 %) из коробки поддерживает OpenID Connect, грамотная стратегия миграции позволит организациям постепенно повысить уровень безопасности и удобства для пользователей без чрезмерных рисков и затрат, отметили исследователи. «Фокус на централизованной платформе IAM и в целом на Identity-центричном подходе к аутентификации и развитие культуры безопасности поможет сделать переход последовательным и контролируемым, не остановив, при этом, текущие бизнес-процессы», — сообщили в Avanpost.
20.06.2025 [20:36], Андрей Крупин
«Базальт СПО», «P7» и VK Tech обеспечат «Россети» отечественным софтом
software
базальт спо
импортозамещение
р7-офис
разработка
россети
россия
сделано в россии
сотрудничество
Компании «Базальт СПО», «P7», VK Tech и «Россети» заключили соглашение о сотрудничестве. Документ был подписан на полях Петербургского международного экономического форума. В рамках партнёрских договорённостей стороны намерены координировать совместные действия и усилия в сфере информационных технологий, в том числе направленные на продвижение российского программного обеспечения. Ключевой задачей соглашения является импортозамещение ПО, используемого в инфраструктуре и рабочих процессах крупнейшего энергетического холдинга страны. В ходе совместной работы компания «Россети» будет предоставлять информацию о планах перехода на отечественный софт, организовывать тестирование решений на своей инфраструктуре и обеспечивать взаимодействие своих специалистов с партнёрами. «Р7», «Базальт СПО» и VK Tech, в свою очередь, обязуются делиться опытом внедрения ПО, актуального для энергетического холдинга, обеспечивать совместимость разрабатываемых решений, участвовать в совместном тестировании, направлять экспертов в рабочие группы, участвовать в образовательных проектах и оперативно отвечать на запросы. ![]() Источник фото: пресс-служба «Базальт СПО» / basealt.ru «Импортозамещение программного обеспечения остаётся одним из наших приоритетов, — отметил заместитель генерального директора по цифровой трансформации ПАО «Россети» Константин Кравченко. — Мы объединяем усилия с крупными российскими разработчиками для дальнейшего перехода на отечественные сервисы. Это позволяет нам решать ключевые задачи — снижение импортозависимости и обеспечение информационной безопасности».
17.06.2025 [23:55], Владимир Мироненко
AMD анонсировала платформу ROCm 7.0, облако для разработчиков AMD Developer Cloud и программу Radeon Test DriveAMD вместе с ускорителями Instinct MI350X/MI355X представила 7-ю версию своего открытого программного стека ROCm (Radeon open compute). Как сообщает компания, ROCm 7.0 предназначен для удовлетворения растущих потребностей рабочих нагрузок генеративного ИИ и HPC, одновременно расширяя возможности разработчиков за счёт доступности, эффективности и активного сотрудничества сообщества. По данным AMD, платформа ROCm 7 предлагает более чем в 3,5 раза большую производительность инференса, чем ROCm 6, и в 3 раза большую эффективность обучения. Это стало возможным благодаря улучшениям производительности и поддержке типов данных с меньшей точностью, таких как FP4 и FP6. Дальнейшие улучшения в коммуникационных стеках позволили оптимизировать использование ускорителя и перемещение данных. ROCm 7 поддерживает распределённый инференс, а также фреймворки SGLang, vLLM и llm-d. Платформа ROCm 7 создавалась совместно с этими партнёрами, включая разработку общих интерфейсов и примитивов для обеспечения эффективного распределённого инференса на платформах AMD. ![]() Источник изображений: AMD Вместе с ROCm 7 компания представила MLOps-платформу ROCm Enterprise AI для бесперебойных ИИ-операций в корпоративном сегменте. Платформа предлагает инструменты для тонкой настройки модели и интеграции как со структурированными, так и неструктурированными рабочими процессами. AMD заявила, что работает с партнёрами по экосистеме над созданием эталонных реализаций для таких приложений, как чат-боты и обобщение документов. ![]() AMD отметила, что тесное партнёрство гарантирует разработчикам доступ к лучшим в своем классе инструментам, постоянному улучшению производительности и открытой среде для быстрой итерации и развёртывания. Также AMD представила партнёров экосистемы ROCm, которые используют преимущества данной платформы:
Кроме того, AMD представила «простую в использовании платформу для разработчиков» AMD Developer Cloud, обеспечивающую быстрый доступ к AMD Instinct с возможностью масштабирования от одного (192 Гбайт памяти) до восьми AMD Instinct MI300X (1536 Гбайт памяти). Сообщается, что конфигурации с одним ускорителем в основном используются для рабочих нагрузок инференса на «лёгких» моделях, тогда как максимальная конфигурация обеспечивает распределённое обучение, тонкую настройку и высокопроизводительный инференс для крупномасштабных моделей. AMD сообщила, что платформа AMD Developer Cloud была разработана с учётом четырёх основных целей:
По словам компании, AMD Developer Cloud предполагает различные варианты использования. Решение идеально подходит для независимых разработчиков AI/ML, работающих над низкоуровневым программированием, разработкой ядер (kernel) или корпоративных приложений и проектов, нацеленных на нативную поддержку AMD. Также платформу можно использовать для мероприятий и хакатонов, обеспечивая масштабируемую поддержку образовательных и практических мероприятий с предоставлением кредитов на использование ускорителей во время семинаров, хакатонов, конкурсов и демонстраций. Также с выходом ROCm 7 появилась поддержка ноутбуков и рабочих станциях на Windows с видеокартами Radeon и процессорами Ryzen AI. С этим связан ещё один важный анонс — компания представила программу ROCm on Radeon Test Drive, которая будет запущена этим летом партнёрстве с различными поставщиками оборудования (первыми стали Colfax и System76), чтобы упростить разработчикам возможность опробовать ROCm на GPU Radeon, передаёт Phoronix. В рамках Radeon Test Drive предоставляется возможность удалённо протестировать GPU Radeon (PRO).
17.06.2025 [14:36], Владимир Мироненко
NVIDIA поможет Германии в создании индустриальных ИИ-облаков для европейских производителейNVIDIA объявила о планах по созданию первого в мире промышленного ИИ-облака для европейских производителей, базирующегося в Германии. ИИ-фабрики, которые развернут по всей стране, будут поддерживать разработку суверенных ИИ-приложений в государственном и частном секторах, в том числе для малых и средних компаний страны, известных как Mittelstand. На Mittelstand приходится 99 % всех предприятий в Германии и более половины экономического производства страны. ИИ-фабрика, построенная на системах NVIDIA DGX B200 и серверах NVIDIA RTX PRO с 10 тыс. ускорителей NVIDIA Blackwell позволит лидерам промышленности Европы ускорить работу индустриальных приложений, включая системы проектирования, инжиниринга и моделирования, цифровых двойников и робототехнику, сообщила компания. ИИ-фабрика будет построена в соответствии с концепцией NVIDIA Omniverse Blueprint. В Юлихском исследовательском центре (FZJ) в Германии идёт сборка суперкомпьютера JUPITER, который станет первой в Европе экзафлопсной системой. Благодаря 24 тыс. суперчипов GH200 с интерконнектом Quantum-2 InfiniBand JUPITER получит вдвое большую вычислительную мощность по сравнению с предыдущим самым мощным общедоступным суперкомпьютером континента. С его помощью исследователи смогут обучать большие языковые модели (LLM) с более чем 100 млрд параметров, заниматься моделированием климата, исследовать квантовых вычисления и разрабатывать лекарства. Во II половине 2026 года в Суперкомпьютерный центр Лейбница (LRZ) в Германии будет запущен суперкомпьютер Blue Lion с чипами NVIDIA Vera Rubin, предназначенный для ускорения исследований в области климата, физики и машинного обучения. NVIDIA также займётся созданием исследовательского центр в Германии в рамках программы NVIDIA AI Technology Center. Баварский ИИ-центр, который планируется создать в сотрудничестве с консорциумом BayernKI, будет продвигать исследования в таких областях, как цифровая медицина, устойчивая диффузия AI и платформы робототехники с открытым исходным кодом для содействия глобальному сотрудничеству. Технологии NVIDIA широко используются немецкими компаниями всех масштабов. В частности, ИИ-компания DeepL из Кёльна развёртывает кластер на базе DGX SuperPOD GB200, который позволит ей переводить весь контент в интернете всего за 18 дней вместо нынешних 194. А модели серии FLUX от Black Forest Labs из Фрайбурга включены в NVIDIA AI Blueprint. Немецкие разработчики систем робототехники, автоматизации и сенсорных систем, включая Agile Robots, idealworks, Neura Robotics и SICK, интегрируют платформу NVIDIA Isaac. Наконец, Finanz Informatik использует инфраструктуру и ПО NVIDIA AI Enterprise для разработки ИИ-ассистента для помощи сотрудникам в обработке банковских данных. Mercedes-Benz использует Omniverse для создания цифровых двойников своих заводов и NVIDIA DRIVE AV/AGX в своих автомобилях. Технологии NVIDIA применяют BMW Group и Continental. NVIDIA также назвала в числе немецких компаний, внедряющих её ИИ-технологии, KION Group, занимающуюся решениями в сфере цепочек поставок, ИИ-стартап в сфере юриспруденции Noxtua и компанию по кибербезопасности Security Networks AG. ![]() Источник изображения: NVIDIA Чтобы инициировать трансформацию ИИ на всех уровнях экономики страны, необходимо обширное сообщество разработчиков в сфере ИИ, отметила NVIDIA. Поэтому Германия инвестирует в образование и повышение квалификации специалистов в области ИИ через некоммерческие организации, университеты и отраслевое сотрудничество. Одной из таких инициатив является appliedAI, крупнейшая в Европе инициатива по применению доверенного ИИ. В её рамках малым компаниям предоставляется доступ к современной инфраструктуре и ПО NVIDIA, практическому обучению и возможность подключения к экосистеме партнёров NVIDIA. Выступая на прошлом неделе с докладом на мероприятии GTC NVIDIA в Париже, гендиректор компании Дженсен Хуанг (Jensen Huang) заявил, что мощности для ИИ-вычислений в Европе вырастут в течение следующих двух лет на порядок. После фактической потери из-за санкций США доступа к рынку Китая, NVIDIA стремится расширить присутствие на новых рынках. Компания уже договорилась о сотрудничестве с французским стартапом Mistral, который построит ИИ-облако на базе 18 тыс. чипов NVIDIA Grace Blackwell. NVIDIA также объявила о запуске инфраструктурных проектов в Италии и Армении. Кроме того, компания заключила соглашения о сотрудничестве с такими телекоммуникационными компаниями, как Orange и Telefonica. В Европе компания уделяет особое внимание «суверенному ИИ», что подразумевает нахождение на территории ЕС дата-центров и серверов, предоставляющих услуги гражданам блока. NVIDIA также объявила о так называемых «технологических центрах» в Европе для передовых исследований, повышения квалификации рабочей силы и ускорении научных прорывов в таких странах, как Великобритания, Франция, Испания и Германия. NVIDIA также расширила возможности GPU-маркетплейса NVIDIA DGX Cloud Lepton.
15.06.2025 [23:29], Владимир Мироненко
Большая жатва: AMD назначила вице-президентом по ИИ гендиректора ИИ-стартапа Lamini, в который сама же и вложиласьAMD продолжает укреплять команду специалистов в сфере ИИ за счёт привлечения талантливых разработчиков, а также поглощения ИИ-стартапов. На минувшей неделе Шарон Чжоу (Sharon Zhou, вторая справа на фото ниже), соучредитель и гендиректор ИИ-стартапа Lamini (PowerML Inc.) сообщила в соцсети X, что она и несколько сотрудников присоединяются к AMD. Комментируя переход, представитель AMD сообщил ресурсу CRN, что это было наймом специалистов, а не приобретением команды, как это было в случае с разработчиком ИИ-чипов Untether AI, который фактически прекратил существование после сделки. В настоящее время неизвестно, какой будет дальнейшая судьба Lamini, которую в прошлом году покинул Грег Диамос (Greg Diamos), бывший архитектор ПО NVIDIA CUDA, основавший компанию вместе с Чжоу в 2022 году. До основания Lamini Чжоу работала менеджером по ML-продуктам в Google, менеджером по продуктам в ИИ-стартапах Kensho Technologies и Tamr, а также занимала должность внештатного преподавателя компьютерных наук в Стэнфордском университете, где она получила докторскую степень по этой же специальности. В AMD её назначили на должность вице-президента по ИИ. Платформа Lamini позволяет компаниям настраивать и кастомизировать большие языковые модели (LLM) с использованием собственных данных. В частности, Lamini предложила новый подход под названием Mixture of Memory Experts (MoME), направленный на повышение производительности LLM и фактической точности путем радикального снижения частоты галлюцинаций с 50 % до 5 %. Утверждается, что этот подход позволяет значительно сократить объём вычислительных ресурсов для обучения LLM, а также продолжительность этого процесса. В 2023 году AMD представила Lamini как одного из первых независимых поставщиков ПО, поддержавших её ускорители Instinct. В сентябре того же года Lamini сообщила, что использует более чем 100 ускорителей серии Instinct MI200 и что платформа AMD ROCm «достигла программного паритета» с NVIDIA CUDA. До определённого момента ИИ-платформа Lamini была единственной коммерческой платформой, целиком и полностью работающей на базе AMD Instinct. В прошлом году стартап привлек финансирование в размере $25 млн от нескольких инвесторов, включая венчурное подразделение AMD, Эндрю Ына (Andrew Ng), гендиректора Dropbox Дрю Хьюстона (Drew Houston), и Лип-Бу Тана (Lip-Bu Tan), который в начале этого года стал гендиректором Intel. Помимо команды Untether AI, AMD приобрела в течение последних нескольких неделе разработчика систем кремниевой фотоники Enosemi и стартапа Brium, специализирующегося на инструментах оптимизации ИИ ПО для различной аппаратной инфраструктуры.
14.06.2025 [17:04], Владимир Мироненко
Scale AI получила от Meta✴ более $14 млрд, но потеряла гендиректора и рискует лишиться крупных контрактов с Gooogle, Microsoft, OpenAI и xAIИИ-стартап Scale AI, занимающийся подготовкой, оценкой и разметкой данных для обучения ИИ-моделей, объявил о крупной инвестиционной сделке с Meta✴, по результатм которой его рыночная стоимость превысила $29 млрд. Сделка существенно расширит коммерческие отношения Scale и Meta✴. Также её условиями предусмотрен переход гендиректора Scale AI Александра Ванга (Alexandr Wang) и ещё ряда сотрудников в Meta✴. Вместо Ванга, который останется в совете директоров стартапа, временно исполняющим обязанности гендиректора Scale AI назначен Джейсон Дроги (Jason Droege), директор по стратегии, имеющий «20-летний опыт создания и руководства знаковыми технологическими компаниями, включая Uber Eats и Axon». Представитель Scale AI уточнил в интервью ресурсу CNBC, что Meta✴ вложит в компанию $14,3 млрд, в результате чего получит в ней 49-% долю акций, но без права голоса. «Мы углубим совместную работу по созданию данных для ИИ-моделей, а Александр Ванг присоединится к Meta✴ для работы над нашими усилиями по созданию суперинтеллекта», — рассказал представитель Meta✴. Переманивая Ванга, который не имея опыта в R&D, сумел с нуля создать крупный бизнес в сфере ИИ, гендиректор Meta✴ Марк Цукерберг (Mark Zuckerberg) делает ставку на его организаторские способности, полагая, что укрепить позиции Meta✴ в сфере ИИ под силу опытному бизнес-лидеру, больше похожему на Сэма Альтмана (Sam Altman), чем на учёных, стоящих у руля большинства конкурирующих ИИ-лабораторий, пишет Reuters. Инвестиции в Scale AI станут вторыми по величине в истории Meta✴ после приобретения WhatsApp за $19 млрд. Однако сделка может оказаться не совсем выгодной для Scale AI, предупреждает Reuters, поскольку многие компании, являющиеся клиентами Scale AI, могут отказаться от дальнейшего сотрудничества из-за опасений по поводу того, что Ванг, оставаясь в совете директоров стартапа, будет предоставлять Meta✴ внутреннюю информацию о приоритетах конкурентов. Представитель Scale AI заверил, что инвестиции Meta✴ и переход Ванга не повлияют на клиентов стартапа, и что Meta✴ не будет иметь доступа к его какой-либо деловой информации или данным. Тем не менее, по словам источников Reuters, Google, один их крупнейших клиентов Scale AI, планирует разорвать отношения со стартапом. Источники сообщили, что Google планировала потратить $200 млн только в этом году на услуги Scale AI по подгтовке и разметке данных людьми. После объявления о сделке поисковый гигант уже провёл переговоры с несколькими конкурентами Scale AI. Scale AI получила в 2024 году размере $870 млн, из них около около $150 млн от Google, утверждают источники. По их словам, другие крупные клиенты, включая Microsoft, OpenAI и xAI, тоже планируют отказаться от услуг Scale AI. Официальных подтверждений этой информации пока не поступало. А финансовый директор OpenAI заявил в пятницу, что компания, которой источники тоже приписывают намерение отказаться от услуг Scale AI, продолжит работать со стартапом, как с одним из своих многочисленных поставщиков данных.
09.06.2025 [15:58], Андрей Крупин
Yandex B2B Tech обновила платформу SourceCraft и открыла доступ для всех разработчиковYandex B2B Tech (бизнес-группа «Яндекса», объединяющая технологии и инструменты компании для корпоративных пользователей, включая продукты Yandex Cloud и «Яндекс 360») выпустила крупное обновление платформы SourceCraft и открыла к ней доступ для всех разработчиков. SourceCraft представляет собой облачное решение с полным набором инструментов для разработки приложений, управления проектами и задачами. В состав платформы включены средства автоматизации сборки и развёртывания кода, переноса репозиториев из GitHub с необходимыми сущностями (в том числе PR, Issues, Branches) для бесшовного перехода, а также ИИ-ассистент Code Assistant, анализирующий контекст и предлагающий наиболее вероятные и релевантные подсказки: функции, циклы, условия и другие элементы кода. SourceCraft позволяет не только хранить код и управлять версиями, но и собирать, тестировать, разворачивать и сопровождать программные продукты в едином интерфейсе. ![]() Источник изображения: Yandex B2B Tech Новая версия SourceCraft дополнилась инструментами безопасной разработки, включающими сканер секретов в коде, анализ зависимостей в кодовой базе и сводную статистику по обнаруженным ИБ‑рискам. Доработкам подвергся Code Assistant — в нём появился режим чата. Теперь ИИ‑ассистент может отвечать на вопросы, генерировать код, юнит‑тесты и документацию. Функциональность доступна в плагинах для VSCode и IDE от JetBrains. В числе прочего новый релиз SourceCraft принёс улучшенную навигацию по коду, автоматизацию CI/CD‑процессов, расширенные инструменты миграции проектов с GitHub, интеграцию со сторонними приложениями через публичный API, доступ через единую корпоративную учётную запись для командной работы. Появились анонимный доступ к публичным репозиториям платформы и возможность создания независимых копий репозиториев (форков) Open Source‑проектов. Также появилась возможность не только разрабатывать, но и сразу публиковать мобильные приложения в App Store, Google Play, RuStore и Huawei AppGallery. Кроме того, стал доступен инструментарий для создания программных пакетов (наборов кода, библиотек, модулей или компонентов) популярных форматов. Разработчик может хранить их в персональном облаке, привязанном к организации SourceCraft, и использовать в своих проектах. SourceCraft доступна через веб‑интерфейс. Чтобы воспользоваться платформой, нужно войти в аккаунт через «Яндекс ID».
09.06.2025 [14:02], Руслан Авдеев
Перегрев, плохое ПО и сила привычки: китайские компании не горят желанием закупать ИИ-ускорители HuaweiНесмотря на дефицит передовых ИИ-ускорителей на китайском рынке, китайская компания Huawei, выпустившая модель Ascend 910C, может столкнуться с проблемами при её продвижении. Она рассчитывала помочь китайскому бизнесу в преодолении санкций на передовые полупроводники, но перспективы нового ускорителя остаются под вопросом, сообщает The Information. Китайские гиганты вроде ByteDance, Alibaba и Tencent всё ещё не разместили крупных заказов на новые ускорители. Основная причина в том, что экосистема NVIDIA доминирует во всём мире (в частности, речь идёт о программной платформе CUDA), а решения Huawei недостаточно развиты. В результате компания продвигает продажи государственным структурам (при поддержке самих властей КНР) — это косвенно свидетельствует о сложности выхода на массовый рынок. Китайский бизнес годами инвестировал в NVIDIA CUDA для ИИ- и HPC-задач. Соответствующий инструментарий, библиотеки и сообщество разработчиков — настолько развитая экосистема, что альтернатива в лице Huawei CANN (Compute Architecture for Neural Networks) на её фоне выглядит весьма слабо. У многих компаний всё ещё хранятся огромные запасы ускорителей NVIDIA, накопленные в преддверии очередного раунда антикитайских санкций, поэтому у их владельцев нет стимула переходить на новые и незнакомые решения. Они скорее предпочтут оптимизировать программный стек, как это сделала DeepSeek, чтобы повысить утилизацию имеющегося «железа». Если бы, например, та же DeepSeek перешла на ускорители Huawei, это подтолкнуло бы к переходу и других разработчиков, но пока этого не происходит. Кроме того, некоторые компании вроде Tencent и Alibaba не желают поддерживать продукты конкурентов, что усложняет Huawei продвижение её ускорителей. Есть и технические проблемы. Самый передовой ускоритель Huawei Ascend 910C периодически перегревается, поэтому возникла проблема доверия к продукции. Поскольку сбои во время длительного обучения модели обходятся весьма дорого. Кроме того, он не поддерживает ключевой для эффективного обучения ИИ формат FP8. Ascend 910С представляет собой сборку из двух чипов 910B. Он обеспечивает производительность на уровне 800 Тфлопс (FP16) и пропускную способность памяти 3,2 Тбайт/с, что сопоставимо с параметрами NVIDIA H100. Также Huawei представила кластер CloudMatrix 384. Наконец, проблема в собственно американских санкциях. В мае 2025 года Министерство торговли США предупредило, что использование чипов Huawei без специального разрешения может расцениваться, как нарушение экспортных ограничений — якобы в продуктах Huawei незаконно используются американские технологии. Такие ограничения особенно важны для компаний, ведущих международный бизнес — даже если они китайского происхождения. Хотя NVIDIA ограничили продажи в Китае, она по-прежнему демонстрирует рекордные показатели. По данным экспертов UBS, у компании есть перспективные проекты суммарной мощностью «десятки гигаватт» — при этом, каждый гигаватт ИИ-инфраструктуры, по заявлениям NVIDIA, приносит ей $40–50 млрд. Если взять вероятную очередь проектов на 20 ГВт с периодом реализации два-три года, то только сегмент ЦОД может обеспечить NVIDIA около $400 млрд годовой выручки. Это подчеркивает доминирующее положение компании на рынке аппаратного обеспечения для ИИ.
07.06.2025 [22:49], Владимир Мироненко
От «железа» до агентов: «К2 НейроТех» представил ПАК-AI для разработки и внедрения ИИ на предприятиях«К2 НейроТех», подразделение компании «К2Тех», представило программно-аппаратный комплекс ПАК-AI, позволяющий оперативно интегрировать ИИ в действующую ИТ-среду организации в соответствии с её требованиями и политиками безопасности. ПАК-AI включает аппаратную часть, программную платформу, а также инструменты для работы с данными, ИИ-моделями, промтами, визуализациями, API-интеграцией и т. д. Первый вариант ПАК-AI построен на базе оборудования YADRO: шесть серверов, включая ИИ-сервер с восемью GPU и сетевые коммутаторы KORNFELD. Управление ПАК-AI осуществляется через портал — специализированную GUI-платформу, служащую единой точкой входа для работы с вычислительными ресурсами, для запуска моделей, настройки среды и контроля загрузки. Платформа обеспечивает управление виртуальными машинами с ускорителями для изолированных задач и контейнерами Kubernetes для обеспечения гибкости и масштабируемости. Платформа обеспечивает доступ к предустановленному ПО: ОС (Astra Linux, CentOS, РЕД ОС), ML-инструментам, моделям и средам разработки. ![]() Источник изображений: «К2 НейроТех» Клиенту доступны функции маршрутизации данных, оркестрации, мониторинга, управления файловыми системами и каталогами, резервного копирования и обеспечения безопасности. Использование ресурсов фиксируется автоматически с отображением их стоимости в разделе биллинга. Разработчикам предоставляется весь необходимый стек инструментов для администрирования моделей. Помимо доступа к востребованным средам, таким как TensorFlow, PyTorch, Keras, HuggingFace Transformers, специалисты имеют возможность разворачивать собственные окружения в виде ВМ или контейнеров, устанавливать дополнительные библиотеки, использовать кастомные образы и конфигурации. Также предоставляется возможность построения MLOps-конвейеров с использованием MLflow, Hydra, Optuna. Прикладной слой платформы представляет собой каталог готовых агентов и моделей, разработанных К2 НейроТех. Он включает решения как на базе открытых, так и вендорских моделей, в том числе YandexGPT mini, GigaChat lite, DeepSeek, Llama, Qwen и другие. Пользователи смогут их обучать на корпоративных данных, адаптировать под бизнес-процессы и применять в прикладных сценариях: от обработки документов и генерации контента до автоматизации клиентского взаимодействия, производственной аналитики и других узкоспециализированных прикладных задач. В ПАК-AI может использоваться отечественное оборудование любых вендоров и ПО, разработанное как на основе решений из реестров Минцифры и Минпромторга России, так и на открытом ПО, что позволяет менять конфигурацию с соответствии с требованиями регуляторов. ПАК-AI реализован в формате IaaS (предоставление вычислительных ресурсов), PaaS (маркетплейс приложений для ML-команд с предоставлением доступа к нужной инфраструктуре и сервисам), SaaS (доступ к предустановленным приложениям от сторонних вендоров). Также с его помощью можно организовать внутренний сервис ИИ-как-услуга (AIaaS) для предоставления LLM и агентов. |
|