Материалы по тегу: разработка
24.03.2025 [08:30], Владимир Мироненко
NVIDIA представила проект AI-Q Blueprint Platform для создания продвинутых ИИ-агентовПризнавая, что одних моделей, включая свежие Llama Nemotron с регулируемым «уровнем интеллекта», недостаточно для развёртывания ИИ на предприятии, NVIDIA анонсировала проект AI-Q Blueprint, представляющий собой фреймворк с открытым исходным кодом, позволяющий разработчикам подключать базы знаний к ИИ-агентам, которые могут действовать автономно. Blueprint был создан с помощью микросервисов NVIDIA NIM и интегрируется с NVIDIA NeMo Retriever, что упрощает для ИИ-агентов извлечение мультимодальных данных в различных форматах. С помощью AI-Q агенты суммируют большие наборы данных, генерируя токены в 5 раз быстрее и поглощая данные петабайтного масштаба в 15 раз быстрее с лучшей семантической точностью. Проект основан на новом наборе инструментов NVIDIA AgentIQ для бесшовного, гетерогенного соединения между агентами, инструментами и данными, опубликованном на GitHub. Он представляет собой программную библиотеку с открытым исходным кодом для подключения, профилирования и оптимизации команд агентов ИИ, работающих на основе корпоративных данных для создания многоагентных комплексных (end-to-end) систем. Его можно легко интегрировать с существующими многоагентными системами — как по частям, так и в качестве комплексного решения — с помощью простого процесса адаптации, который обеспечивает полную поддержку. Набор инструментов AgentIQ также повышает прозрачность с полной отслеживаемостью и профилированием системы, что позволяет организациям контролировать производительность, выявлять неэффективность и иметь детальное представление о том, как генерируется бизнес-аналитика. Эти данные профилирования можно использовать с NVIDIA NIM и библиотекой с открытым исходным кодом NVIDIA Dynamo для оптимизации производительности агентских систем. Благодаря этим инструментам предприятиям будет проще объединять команды ИИ-агентов в таких решениях, как Agentforce от Salesforce, поиск Atlassian Rovo в Confluence и Jira, а также ИИ-платформа ServiceNow для трансформации бизнеса, чтобы устранить разрозненность, оптимизировать задачи и сократить время ответа с дней до часов. AgentIQ также интегрируется с такими фреймворками и инструментами, как CrewAI, LangGraph, Llama Stack, Microsoft Azure AI Agent Service и Letta, позволяя разработчикам работать в своей предпочтительной среде. Azure AI Agent Service интегрирован с AgentIQ для обеспечения более эффективных агентов ИИ и оркестровки многоагентных фреймворков с использованием семантического ядра, которое полностью поддерживается в AgentIQ. Возможности ИИ-агентов уже широко используются в различных отраслях. Например, платёжная система Visa использует ИИ-агентов для оптимизации кибербезопасности, автоматизируя анализ фишинговых писем в масштабе. Используя функцию профилирования AI-Q, Visa может оптимизировать производительность и затраты агентов, максимально увеличивая роль ИИ в эффективном реагировании на угрозы, сообщила NVIDIA.
24.03.2025 [01:37], Владимир Мироненко
NVIDIA анонсировала ИИ-модели Llama Nemotron с регулируемым «уровнем интеллекта»NVIDIA анонсировала новое семейство ИИ-моделей Llama Nemotron с расширенными возможностями рассуждения. Основанные на моделях Llama с открытым исходным кодом от Meta✴ Platforms, модели от NVIDIA предназначены для предоставления разработчикам основы для создания продвинутых ИИ-агентов, которые могут от имени своих пользователей независимо или с минимальным контролем работать в составе связанных команд для решения сложных задач. «Агенты — это автономные программные системы, предназначенные для рассуждений, планирования, действий и критики своей работы», — сообщила Кари Бриски (Kari Briski), вице-президент по управлению программными продуктами Generative AI в NVIDIA на брифинге с прессой, пишет VentureBeat. «Как и люди, агенты должны понимать контекст, чтобы разбивать сложные запросы, понимать намерения пользователя и адаптироваться в реальном времени», — добавила она. По словам Бриски, взяв Llama за основу, NVIDIA оптимизировала модель с точки зрения требований к вычислениям, сохранив точность ответов. NVIDIA сообщила, что улучшила новое семейство моделей рассуждений в ходе дообучения, чтобы улучшить многошаговые математические расчёты, кодирование, рассуждения и принятие сложных решений. Это позволило повысить точность ответов моделей до 20 % по сравнению с базовой моделью и увеличить скорость инференса в пять раз по сравнению с другими ведущими рассуждающими open source моделями. Повышение производительности инференса означают, что модели могут справляться с более сложными задачами рассуждений, имеют расширенные возможности принятия решений и позволяют сократить эксплуатационные расходы для предприятий, пояснила компания. Модели Llama Nemotron доступны в микросервисах NVIDIA NIM в версиях Nano, Super и Ultra. Они оптимизированы для разных вариантов развёртывания: Nano для ПК и периферийных устройств с сохранением высокой точности рассуждения, Super для оптимальной пропускной способности и точности при работе с одним ускорителем, а Ultra — для максимальной «агентской точности» в средах ЦОД с несколькими ускорителями. Как сообщает NVIDIA, обширное дообучение было проведено в сервисе NVIDIA DGX Cloud с использованием высококачественных курируемых синтетических данных, сгенерированных NVIDIA Nemotron и другими открытыми моделями, а также дополнительных курируемых наборов данных, совместно созданных NVIDIA. Обучение включало 360 тыс. часов инференса с использованием ускорителей H100 и 45 тыс. часов аннотирования человеком для улучшения возможностей рассуждения. По словам компании, инструменты, наборы данных и методы оптимизации, используемые для разработки моделей, будут в открытом доступе, что предоставит предприятиям гибкость в создании собственных пользовательских рвссуждающих моделей. Одной из ключевых функций NVIDIA Llama Nemotron является возможность включать и выключать опцию рассуждения. Это новая возможность на рынке ИИ, утверждает компания. Anthropic Claude 3.7 имеет несколько схожую функциональность, хотя она является закрытой проприетарной моделью. Среди моделей с открытым исходным кодом IBM Granite 3.2 тоже имеет переключатель рассуждений, который IBM называет «условным рассуждением». Особенность гибридного или условного рассуждения заключается в том, что оно позволяет системам исключать вычислительно затратные этапы рассуждений для простых запросов. NVIDIA продемонстрировала, как модель может задействовать сложные рассуждения при решении комбинаторной задачи, но переключаться в режим прямого ответа для простых фактических запросов. NVIDIA сообщила, что целый ряд партнёров уже использует модели Llama Nemotron для создания новых мощных ИИ-агентов. Например, Microsoft добавила Llama Nemotron и микросервисы NIM в Microsoft Azure AI Foundry. SAP SE использует модели Llama Nemotron для улучшения возможностей своего ИИ-помощника Joule и портфеля решений SAP Business AI. Кроме того, компания использует микросервисы NVIDIA NIM и NVIDIA NeMo для повышения точности завершения кода для языка ABAP. ServiceNow использует модели Llama Nemotron для создания ИИ-агентов, которые обеспечивают повышение производительности и точности исполнения задач предприятий в различных отраслях. Accenture сделала рассуждающие модели NVIDIA Llama Nemotron доступными на своей платформе AI Refinery. Deloitte планирует включить модели Llama Nemotron в свою недавно анонсированную платформу агентского ИИ Zora AI. Atlassian и Box также работают с NVIDIA, чтобы гарантировать своим клиентам доступ к моделям Llama Nemotron.
17.03.2025 [11:09], Сергей Карасёв
Toshiba открыла в Германии лабораторию инноваций в области HDDКорпорация Toshiba Electronics Europe GmbH объявила о создании лаборатории инноваций в области жёстких дисков в Дюссельдорфе (Германия). Специалисты HDD Innovation Lab займутся оценкой конфигураций систем на базе HDD для крупных IT-развёртываний, таких как сети хранения данных (SAN), масштабные сетевые хранилища (NAS), платформы видеонаблюдения и облачные сервисы. Как отмечает Райнер Каезе (Rainer Kaese), старший менеджер по развитию HDD-направления Toshiba, SSD обеспечивают существенные преимущества перед HDD в плане скоростных показателей. Однако при хранении огромных массивов данных, например, для приложений ИИ, формирование систем большой ёмкости на основе SSD оказывается нецелесообразным с финансовой точки зрения: стоимость изделий на базе флеш-памяти примерно в семь раз выше по сравнению с HDD при сопоставимой вместимости. ![]() Источник изображения: Toshiba Кроме того, по словам Каезе, корпорация Toshiba продемонстрировали, что 60 жёстких дисков в программно-определяемом хранилище ZFS могут заполнить всю пропускную способность сети 100GbE. Таким образом, для определённых типов задач применение HDD оказывается более выгодным, нежели использование дорогостоящих, но скоростных SSD. Лаборатория HDD Innovation Lab сфокусируется на оценках конфигураций RAID и масштабируемых СХД для корпоративных клиентов, дата-центров и облачных провайдеров. Ключевой особенностью площадки является возможность осуществлять тестирование для различных архитектур. Лаборатория объединяет все основные компоненты СХД на базе жёстких дисков, такие как различные серверы, массивы JBOD, шасси, контроллеры, кабели и сопутствующее ПО. В частности, задействованы одноузловые серверы, поддерживающие до 78 HDD суммарной вместимостью до 2 Пбайт при установке современных накопителей большой ёмкости. Площадка оснащена точным оборудованием для анализа энергопотребления. Лаборатория займётся выполнением оценочных работ для клиентов и партнёров в Европе и на Ближнем Востоке. Результаты тестирования в виде технических документов и отчётов будут доступны на сайте Toshiba Storage.
13.03.2025 [23:30], Владимир Мироненко
Бывший глава Google предупредил об опасности стремления США к доминированию в области ИИ
software
безопасность
ии
информационная безопасность
китай
прогноз
разработка
санкции
сша
ускоритель
цод
Бывший глава Google Эрик Шмидт (Eric Schmidt) опубликовал статью «Стратегия сверхразума» (Superintelligence Strategy), написанную в соавторстве с Дэном Хендриксом (Dan Hendrycks), директором Центра безопасности ИИ, и Александром Вангом (Alexandr Wang), основателем и генеральным директором Scale AI, в которой высказывается мнение о том, что США следует воздержаться от реализации аналога «Манхэттенского проекта» для достижения превосходства в области ИИ, поскольку это спровоцирует упреждающие киберответы со стороны, например, Китая, пишет The Register. Авторы статьи утверждают, что любое государство, которое создаст супер-ИИ, будет представлять прямую угрозу для других стран, и они, стремясь обеспечить собственное выживание, будут вынуждены саботировать такие проекты ИИ. Любая «агрессивная попытка одностороннего доминирования в области ИИ приведёт к превентивному саботажу со стороны конкурентов», который может быть реализован в виде шпионажа, кибератак, тайных операций по деградации обучения моделей и даже прямого физического удара по ИИ ЦОД. Авторы считают, что в области ИИ мы уже близки к доктрине взаимного гарантированного уничтожения (Mutual Assured Destruction, MAD) времён Холодной войны. Авторы дали нынешнему положению название «гарантированное взаимное несрабатывание ИИ» (Mutual Assured AI Malfunction, MAIM), при котором проекты ИИ, разрабатываемые государствами, ограничены взаимными угрозами саботажа. Вместе с тем ИИ, как и ядерные программы в своё время, может принести пользу человечеству во многих областях, от прорывов в разработке лекарств до автоматизации процессов производства, использование ИИ важно для экономического роста и прогресса в современном мире. Согласно статье, государства могут выбрать одну из трех стратегий.
Комментируя предложение Комиссии по обзору экономики и безопасности США и Китая (USCC) о госфинансирования США своего рода «Манхэттенского проекта» по созданию суперинтеллекта в какому-нибудь укромном уголке страны, авторы статьи предупредили, что Китай отреагирует на этот шаг, что приведёт лишь к длительному дисбалансу сил и постоянной нестабильности. Авторы статьи считают, что государства должны отдавать приоритет доктрине сдерживания, а не победе в гонке за искусственный сверхразум. MAIM подразумевает, что попытки любого государства достичь стратегической монополии в области ИИ столкнутся с ответными мерами со стороны других стран, а также приведут к соглашениям, направленным на ограничение поставок ИИ-чипов и open source моделей, которые по смыслу будут аналогичны соглашениям о контроле над ядерным оружием. Чтобы обезопасить себя от атак на государственном уровне с целью замедлить развитие ИИ, в статье предлагается строить ЦОД в удалённых местах, чтобы минимизировать возможный ущерб, пишет Data Center Dynamics. Тот, кто хочет нанести ущерб работе других стран в сфере ИИ, может начать с кибератак: «Государства могут “отравить” данные, испортить веса и градиенты моделей, нарушить работу ПО, которое обрабатывают ошибки ускорителей и управляет питанием и охлаждением…». Снизить вероятность атак поможет и прозрачность разработок. ИИ можно использовать для оценки безопасности других ИИ-проектов, что позволит избежать атак на «гражданские» ЦОД. Вместе с тем не помешает и прозрачность цепочек поставок. Поскольку ИИ-ускорители существуют в реальном, а не виртуальном мире, отследить их перемещение не так уж трудно. Таким образом, даже устаревшие или признанные негодными чипы не смогут попасть на чёрный рынок — их предлагается утилизировать с той же степенью ответственности, что и химические или ядерные материалы. Впрочем, соблюдение всех этих рекомендаций не устранит главную проблему — зависимость от Тайваня в плане производства передовых чипов, которая является критической для США, говорят авторы статьи. Поэтому западным странам следует разработать гарантированные цепочки поставок ИИ-чипов. Для этого потребуются значительные инвестиции, но это необходимо для обеспечения конкурентоспособности.
05.03.2025 [23:05], Татьяна Золотова
Российский альянс разработчиков RISC-V запросил у государства поддержкуАльянс российских разработчиков микроэлектроники RISC-V направил премьер-министру Михаилу Мишустину и в Минпромторг письмо с предложением внести технологии на базе открытой процессорной архитектуры RISC-V в приоритетное направление развития нацпроектов и госпрограмм. Об этом сообщает «Коммерсантъ». В России альянс по развитию архитектуры RISC-V был создан осенью 2022 года. В письме перечислены практически все доступные формы господдержки. Помимо включения в нацпроекты альянс просит предоставить субсидии на НИОКР для проектов с архитектурой RISC-V и возмещать затраты на патенты для продукции на базе этой архитектуры. Также альянс хочет, чтобы государство стимулировало производство и экспорт продукции RISC-V, субсидировало затраты на ее внедрение, предусмотрело приоритетную закупку оборудования на базе RISC-V с использованием механизма «второй лишний» в госзакупках (когда при наличии хотя бы одного российского производителя или из ЕАЭС автоматически отклоняются заявки иностранных поставщиков). ![]() Источник изображения: Brian Kostiuk/unsplash.com RISC-V хоть и открытая архитектура, но лицензию предоставляет международный консорциум RISC-V, основанный в США, а значит, он обязана выполнять санкционные требования в отношении России, сообщил «Коммерсанту» эксперт среди разработчиков процессоров, сославшись на ситуацию 2022 года, когда Великобритания ограничила доступ к спецификациям архитектуры Arm, которую использовали последние процессоры «Байкал». Однако головная некоммерческая организация RISC-V International ещё в 2019 году «сменила прописку» на швейцарскую как раз из-за опасений возможных ограничений со стороны Вашингтона. В октябре 2023 года американские власти уже заявляли, что рассматривают возможность ограничить недружественным компаниям участие в международных сообществах RISC-V. Помимо юридических рисков участники рынка микроэлектроники называют монополизацию и снижение технологического суверенитета. Так, в МЦСТ (разрабатывает процессоры «Эльбрус» на собственной архитектуре) считают, что запрошенные альянсом преференции должны применяться ко всем отечественным процессорам при условии, что микропроцессоры и их ядра разрабатываются в России.
26.02.2025 [01:00], Татьяна Золотова
Yandex B2B Tech запустил платформу для разработчиков SourceCraft, которая должна стать аналогом американской GitLabС помощью платформы SourceCraft ИТ-специалисты могут совместно разрабатывать и развивать программные продукты. На данный момент разработчики и DevOps-инженеры могут пользоваться площадкой в тестовом режиме, в дальнейшем наряду с бесплатными тарифами появятся коммерческие опции. SourceCraft позиционируется как основное рабочее место ИТ-специалиста в Software Development Life Сycle. Площадка подходит для индивидуальных разработчиков (работа в открытых и закрытых репозиториях; планирование, создание и миграция с других платформ; принятие изменений, сборка и развертывание в Yandex Cloud), бизнеса и CTO (сокращение расходов на проверку бизнес-гипотез, разработку и время выхода на рынок; настройка платформы под себя), образовательных учреждений (разработка курсов/хакатонов, хранение портфолио студентов). Сервис поддерживает более 30 языков программирования. Пока он доступен через веб-интерфейс. Летом 2025 года SourceCraftс станет доступен для бизнеса и опенсорс-сообщества. Осенью инструменты платформы будут предоставляться по облачной модели (SaaS, Software as a Service) и интегрированы с сервисами Yandex Cloud, что позволит развернуть проект в облачной инфраструктуре «по кнопке». В планах у разработчиков и модель on-premise – для использования на собственных серверах. Также в будущем на SourceCraft будут доступны функции сканирования секретов и поиска уязвимостей в цепочках поставок, будут совершенствоваться средства автоматизации. SourceCraft развивается в рамках бизнес-направления Yandex B2B Tech, которое было открыто в ноябре 2024 года, в Yandex Cloud. По данным «Яндекса», выручка Yandex Cloud по итогам 2024 года составила 19,8 млрд руб. Всего в 2025–2026 гг. Yandex Cloud планирует инвестировать в новые направления, в том числе в развитие SourceCraft, 42 млрд руб.
25.02.2025 [17:12], Андрей Крупин
ФСТЭК России подтвердила статус безопасности процессов разработчика Astra LinuxКомпания «РусБИТех-Астра» (входит в «Группу Астра»; занимается разработкой операционной системы Astra Linux и инфраструктурного ПО) сообщила о получении сертификата ФСТЭК России, подтверждающего соответствие процессов безопасной разработки программного обеспечения требованиям ГОСТ Р 56939 «Защита информации. Разработка безопасного программного обеспечения. Общие требования». Сертификация процессов безопасной разработки действует в России с 1 июня 2024 года — она предполагает проверку регулирующим органом соответствия ГОСТ не только на уровне отдельного ПО, но и на уровне организации. Первым аккредитованным и пока единственным органом по сертификации в данной области является Институт системного программирования им. В. П. Иванникова Российской академии наук (ИСП РАН). Требование соответствию ГОСТ Р 56939 включено во все проводимые заказчиками тендеры, оно прописано в документах всех значимых отраслей, таких как банковская сфера, критическая информационная инфраструктура, транспорт, медицина. ![]() Источник изображения: DC Studio / freepik.com Полученный сертификат подтверждает, что в штате компании «РусБИТех-Астра» трудятся квалифицированные ИБ-специалисты и выстроены надёжные процессы безопасной разработки, что позволяет самостоятельно проводить исследования, связанные с внесением изменений в сертифицированные продукты без привлечения испытательной лаборатории, что значительно сокращает срок выпуска обновлений. «Пройденная сертификация — это важнейшее достижение и событие, которое демонстрирует всем клиентам и партнёрам высочайший уровень доверия регулятора к разработчику. Благодаря тому, что наши продукты проходят строгий контроль качества, их применение позволяет сделать инфраструктуру отказоустойчивой и обеспечить наиболее эффективную защиту от множества кибератак, которые реализуются через эксплуатацию уязвимостей. На сегодня такие сертификаты в России получили всего три вендора, включая «РусБИТех-Астра», и это служит дополнительным подтверждением того, что наше ПО отвечает самым серьёзным требованиям в части инфобезопасности, а в самой компании стандартизованы процессы безопасной разработки, масштабируемые на продукты «Группы Астра» в целом», — заявил Юрий Соснин, заместитель генерального директора «Группы Астра».
20.02.2025 [21:07], Андрей Крупин
Российская облачная среда для разработки GigaIDE Cloud с ИИ-ассистентом вышла в релиз«СберТех» (входит в экосистему «Сбера») сообщил о доступности профессиональной аудитории облачной среды для разработки GigaIDE Cloud с интегрированным ассистентом на базе искусственного интеллекта (ИИ). Новинка дополняет выпущенную ранее версию GigaIDE Desktop и открывает ещё больше возможностей для более эффективной организации работы команд программистов. GigaIDE Cloud встроена в отечественную платформу для работы с исходным кодом GitVerse и предоставляет пользователям необходимый набор инструментов для организации полного цикла разработки ПО — от создания концепции до реализации проекта. Взаимодействовать с рабочим окружением IDE-среды можно как с помощью веб-интерфейса в браузере, так посредством локального нативного приложения для удалённой разработки на любом устройстве. При этом все вычислительные ресурсы развёрнуты в облаке, а для оптимизации расходов предусмотрен режим сна с сохранением настроек и результатов работы. GigaIDE Cloud позволяет писать и отлаживать код, запускать автоматические тесты и следить за результатом работы приложений. Доступна разработка на JavaScript, Go, Python и других востребованных языках программирования. Проекты можно переносить с других платформ или создавать из шаблонов, среди которых — React, Vue, Jupyter Notebook. Среду можно конфигурировать и настраивать под себя с помощью расширений Visual Studio Code — стандарта для разработки веб-приложений. ![]() Отличительной особенностью GigaIDE Cloud является встроенный в среду ИИ-ассистент GigaCode. Он анализирует контекст проекта, отображает советы и подсказки, а также предлагает полные конструкции функций, циклов и других элементов. По заверениям «СберТеха», благодаря автоматизации рутинных процессов умный помощник позволяет писать код в среднем на 25 % быстрее. «Российские разработчики оказались в непростой ситуации: зарубежные решения стали недоступны пользователям, а отечественные аналоги не получили широкого распространения. В ответ на потребности российских программистов мы предложили собственную интегрированную среду — GigaIDE, — которая позволяет разработчикам обеспечить непрерывный рабочий процесс, сохраняя привычный пользовательский опыт», — отмечает «Сбер».
19.02.2025 [13:35], Сергей Карасёв
Минцифры обнародовало новые правила включения продуктов в реестр российского ПОМинистерство цифрового развития, связи и массовых коммуникаций РФ дало разъяснения по поводу новых правил включения продуктов в реестр российского ПО. Изменения, как утверждается, направлены на то, чтобы повысить зрелость отечественного софта и ускорить импортозамещение в сегменте госкомпаний. О том, что Минцифры ужесточит требования для включения софта в реестр отечественного ПО, сообщалось в декабре прошлого года. Необходимым условием, в частности, становится совместимость как минимум с двумя российскими операционными системами. Ведомство поясняет, что поддержка двух ОС из реестра необходима для работы продуктов в единой программной среде. В случае программно-аппаратных комплексов (ПАК) требуется совместимость только с одной операционной системой. При этом Минцифры, как отмечается, отберёт наиболее зрелые ОС с учётом проверки на дополнительные критерии, чтобы облегчить выбор разработчикам. Требования будут вступать в силу поэтапно: они распространятся на большинство классов прикладного ПО с 2026 года, а на промышленные решения — с 2028-го. Для софта, уже включённого в реестр, готовится отдельный план проверки. В соответствии с новыми правилами, ПО госкомпаний будет включаться в реестр только при отсутствии в нём соответствующих аналогов. Данное требование направлено на поддержку продвижения коммерческих продуктов. Госкомпании смогут разрабатывать и включать своё ПО в реестр при условии коммерциализации с ежегодным подтверждением. Доля продаж такого софта аффилированным лицам не должна превышать 30 %. Требование касается только некоторых классов софта, где уже есть зрелые отечественные решения: это, в частности, ОС, офисные пакеты, СУБД, антивирусы. Разработчики также смогут воспользоваться добровольной проверкой своих продуктов на соответствие дополнительным требованиям: это поддержка российских микропроцессоров, сертификатов безопасности, отсутствие уязвимостей и пр. Продукты, прошедшие проверку, получат преференции при госзакупках. Вместе с тем несоответствие дополнительным требованиям «не станет препятствием для включения ПО в реестр и не приведёт к исключению из него».
06.02.2025 [16:46], Руслан Авдеев
Индия должна стать лидером в создании малых «рассуждающих» ИИ-моделей, заявил Сэм АльтманНа заключительном этапе азиатского турне глава OpenAI Сэм Альтман (Sam Altman) заявил, что Индия способна стать одним из лидеров в гонке ИИ, особенно — в деле создании малых «рассуждающих» моделей (SLM). Альтман выразил интерес к динамичной экосистеме местных разработчиков, которая может стать ключевым элементом расширения OpenAI, сообщает DigiTimes. По словам Альтмана, Индия стала вторым по величине рынком для компании, поскольку за последний год число пользователей утроилось. Во время визита Альтман встретился с представителями правительства страны. Хотя затраты на разработку новых моделей по-прежнему высоки, Альтман признал, что прогресс в области ИИ может значительно снизить зависимость от дорогостоящего оборудования, а отдача от вложений в ИИ будет расти экспоненциально. Это приведёт к ежегодному десятикратному снижению стоимости «единиц интеллекта» — условного измерения вычислительной эффективности ИИ. По словам бизнесмена, мир достиг стадии невероятного прогресса в сфере «дистилляции» моделей. Хотя обучение даже малых моделей остаётся довольно дорогим, именно небольшие модели с возможностью «рассуждений» приведут буквально к взрыву креативности. И Индия должна быть на переднем крае прогресса. Альтман особенно выделил потенциал проектов в здравоохранении и образовании, где ИИ способен стать движущей силой преобразований. Сейчас индийские компании обратили внимание на открытые модели, включая DeepSeek. Стоит отметить, что в ходе визита в Индию в июне 2023 года Альтман охарактеризовал шансы страны на создание ИИ-моделей уровня ChatGPT как «совершенно безнадёжные». Теперь же он приятно удивлён достижениями Индии в этой области. Глава OpenAI отдельно пояснил, что прежние высказывания относились к трудностям конкуренции с IT-гигантами при создании экономически эффективных моделей. Альтман отдельно подчеркнул, что стоимость API OpenAI значительно упала, и намекнул, что в будущем тоже возможно появление open source инициатив. Индия активно продвигает ИИ-проекты в рамках инициативы IndiaAI, подкреплённой инвестициями в объёме ₹103,7 млрд рупий ($1,2 млрд). Местную большую языковую модель (LLM) власти намерены создать в течение десяти месяцев. Представители Министерства коммуникаций и информационных технологий Индии заявили, что создание базовой структуры уже завершено, теперь усилия разработчиков направлены на создание вариантов моделей, соответствующих уникальным языковым и культурным требованиям страны. |
|