Материалы по тегу: разработка
|
03.06.2024 [14:18], Руслан Авдеев
GitVerse развернул российское «зеркало» заблокированного Docker HubРоссийский сервис GitVerse оперативно сформировал собственное «зеркало» Docker Hub, так что теперь у пользователей из России есть доступ к актуальным docker-образам. Пресс-служба «СберТеха» («Сбербанк Технологии») сообщает, что сервис уже заработал в режиме «бета» — достаточно будет быстро перенастроить уже имеющиеся клиенты. В «СберТехе» сообщают, что размещённые на площадке образы полностью соответствуют исходным с Docker Hub. Уже опубликована инструкция по применению docker-образов и, там же, инструкция по применению альтернативного клиента podman. По словам генерального директора СберТеха, несмотря на то, что зарубежный сервис заблокирован для российских клиентов, он по-прежнему важен с точки зрения непрерывности рабочих процессов. Именно поэтому компания выпустила обновление GitVerse.
Источник изображения: Luke Peters/unsplash.com Платформа Docker Hub пользовалась большим спросом у российских индивидуальных и корпоративных пользователей, но в конце прошлого месяца доступ к ней был закрыт. Docker Hub активно используется для получения зависимостей и базовых docker-образов в ходе разработки и развёртывания ПО. При этом альтернативные репозитории и «зеркала», созданные неизвестными компаниями или лицами, могут быть опасны в связи с возможными атаками на цепочку поставок.
02.06.2024 [15:30], Владимир Мироненко
NVIDIA объявила о доступности NIM для разработчиков ИИNVIDIA объявила о доступности NVIDIA NIM, микросервисов инференса, которые предоставляют готовые модели в виде заранее оптимизированных контейнеров, доступных для развёртывания в облаках, ЦОД или на рабочих станциях. Это, по словам компании, позволяет разработчикам возможность без труда создавать приложения генеративного ИИ за считанные минуты, хотя ранее на это уходили недели. Сложность приложений генеративного ИИ растёт и часто в них используется несколько моделей с различными возможностями для генерации текста, изображений, видео, речи и т.д. NVIDIA NIM позволяет значительно повысить производительность разработчиков, предоставляя простой стандартизированный способ добавления генеративного ИИ в их приложения. NIM также позволяет компаниям максимизировать свои инвестиции в инфраструктуру. Например, NIM-контейнер с оптимизированным вариантом Meta✴ Llama 3-8B выдаёт втрое больше токенов за единицу времени, чем LLM без оптимизаций. Более 200 технологических партнёров NVIDIA, включая Cadence, Cloudera, Cohesity, DataStax, NetApp, Scale AI и Synopsys, уже используют NIM, чтобы ускорить развёртывание генеративного ИИ для приложений, специфичных для их индустрии, таких как ИИ-помощники, помощники по созданию кода, цифровые человеческие аватары и многое другое. Кроме того, экосистему NIM поддерживают Canonical, Red Hat, Nutanix, VMware, Kinetica и Redis. Доступна и интеграция с KServe. NIM интегрирован в платформу NVIDIA AI Enterprise. Начиная со следующего месяца участники программы NVIDIA Developer Program получат бесплатный доступ к NIM для исследований, разработки и тестирования. Контейнеры NIM могут включать ПО NVIDIA CUDA, NVIDIA Triton Inference Server и NVIDIA TensorRT-LLM. А на ai.nvidia.com уже доступно более 40 готовых моделей, включая Databricks DBRX, Google Gemma, Meta✴ Llama 3, Microsoft Phi-3, Mistral Large, Mixtral 8x22B и Snowflake Arctic. Компания также представила и NVIDIA BioNeMo NIM для биомедицинской сферы. Ведущие провайдеры ИИ-решений и MLOps-платформ, включая Amazon SageMaker, Microsoft Azure AI, Dataiku, DataRobot, deepset, Domino Data Lab, LangChain, Llama Index, Replicate, Run.ai, ServiceNow, Securiti AI и Weights & Biases также внедрили NIM. Hugging Face теперь тоже предлагает NIM-контейнейры и позволяет развернуть модели в различных облаках всего за несколько кликов. Микросервисы NIM также интегрированы в AWS, Google Cloud, Microsoft Azure и Oracle Cloud. Наконец, компетенциями в области NIM обзавелись Accenture, Deloitte, Infosys, Latentview, Quantiphi, SoftServe, TCS и Wipro. Предприятия могут запускать приложения с поддержкой NIM практически в любом месте, в том числе на сертифицированных NVIDIA системах Cisco, Dell, HPE, Lenovo и Supermicro, а также ASRock Rack, ASUS, GIGABYTE, Ingrasys, Inventec, Pegatron, QCT, Wistron и Wiwynn. Более того, например, Foxconn и Pegatron уже используют NIM для разработки предметно-ориентированных LLM для собственных производственных нужд.
28.05.2024 [11:50], Сергей Карасёв
RISC-V DevBoards: стартует первая в России программа раннего доступа к архитектуре RISC-VАльянс RISC-V объявил о начале приёма заявок на участие в RISC-V DevBoards — это первая в России программа раннего доступа к архитектуре RISC-V с использованием отладочных плат для микроконтроллеров. Участие в программе не требует приобретения оборудования — оно предоставляется бесплатно. Отмечается, что участники RISC-V DevBoards смогут одними из первых протестировать возможности отечественных микроконтроллеров на открытой архитектуре RISC-V, а также создать прототипы собственных устройств. На первом этапе будет предоставлен доступ к микроконтроллеру «MIK32 Амур» (К1948ВК018) на базе отладочной платы MIK32. Напомним, изделие «MIK32 Амур», разработанное компанией «Микрон», содержит ядро RISC-V, однократно программируемую память (ПЗУ на 256 бит), ОЗУ ёмкостью 16 Кбайт, а также ПЗУ (EEPROM; 8 Кбайт). В дальнейшем перечень микроконтроллеров, доступных в рамках программы RISC-V DevBoards, планируется расширять.
Источник изображения: Альянс RISC-V / «Микрон» Компания Positive Technologies, входящая в состав Альянса RISC-V, оценит безопасность и уровень защищённости спроектированных устройств. Результаты тестирования лучших проектов будут опубликованы, а о разработке узнают профессионалы российского IT-рынка. Инициатива должна способствовать развитию экосистемы RISC-V в России.
27.05.2024 [14:51], Сергей Карасёв
RISC-V для учёбы: НИУ МИЭТ и YADRO представили микроконтроллер HackeeНациональный исследовательский университет «МИЭТ» и российский производитель вычислительной техники YADRO (ООО «КНС групп») представили учебный микроконтроллер Hackee на открытой архитектуре RISC-V. Новинка предназначена для применения во встраиваемых системах, носимой электронике и оборудовании Интернета вещей (IoT). В основу изделия положено 32-битное ядро SCR1. Тактовая частота составляет 85 МГц. Чип располагает 128 Кбайт оперативной памяти, таймерами, интерфейсами UART, SPI, I2C, CAN, JTAG. Изделие производится на предприятии АО «Микрон» по 180-нм технологии. Отмечается, что Hackee является результатом сотрудничества участников российского Альянса RISC-V — объединения независимых разработчиков вычислительной техники и программного обеспечения на архитектуре RISC-V. Основная цель организации — создание открытого сообщества разработчиков для дальнейшего развития RISC-V в России.
Источник изображения: Альянс RISC-V Нужно отметить, что ранее «Микрон» (входит в ГК «Элемент») представила отечественный микроконтроллер «MIK32 Амур» на базе RISC-V. Решение предназначено для устройств промышленной автоматизации, IoT, беспроводной периферии, интеллектуальных сетей, охранных систем и пр. Причём спрос на это изделие превзошёл ожидания.
22.05.2024 [12:54], Сергей Карасёв
Поставщик данных для обучения ИИ Scale AI привлёк $1 млрдСтартап Scale AI, основанный в 2016 году, объявил о проведении раунда финансирования Series F, в ходе которого привлекла $1 млрд, а оценка компании составила $13,8 млрд. Сложные ИИ-модели обучаются на огромных массивах данных, для сбора и подготовки которых может потребоваться много времени. Scale AI предоставляет облачный сервис Generative AI Data Engine, который ускоряет и упрощает этот процесс. Клиенты Scale AI указывают, данные какого типа им необходимы для обучения ИИ-моделей, после чего стартап занимается подготовкой соответствующих наборов. Кроме того, платформа Scale AI упрощает задачу разметки данных. Поддерживается работа с текстовой информацией, изображениями и аудиоматериалами, а также более специализированными данными, такими как журналы датчиков (лидаров) беспилотных автомобилей.
Источник изображения: Scale AI Scale AI также предоставляет ряд дополнительных услуг. В их число входит сервис проверки новый сетей на наличие уязвимостей, галлюцинаций и других проблем. Для организаций государственного сектора компания разработала чат-бота Donovan, который рассчитан на работу с конфиденциальной информацией. Программу финансирования Series F возглавила Accel. Кроме того, средства предоставили существующие инвесторы — Y Combinator, Nat Friedman, Index Ventures, Founders Fund, Coatue, Thrive Capital, Spark Capital, NVIDIA, Tiger Global Management, Greenoaks и Wellington Management. В число новых инвесторов вошли Cisco Investments, DFJ Growth, Intel Capital, ServiceNow Ventures, AMD Ventures, WCM, Amazon, Elad Gil и Meta✴. Полученные деньги будут направлены на улучшение существующих продуктов и развитие новых проектов.
16.05.2024 [23:59], Владимир Мироненко
3Logic локализует в России китайскую платформу Gitee и перенесёт 100 тыс. open source проектов3Logic Group объявила о создании платформы gitee.ru для хостинга репозиториев ИT-проектов и их совместной разработки, которая позволит отечественным разработчикам и компаниям использовать ПО китайской платформы gitee.com — крупнейшего китайского репозитория ПО с открытым исходным кодом. В создании участвуют входящая в структуру 3Logic Group компания Xellon, специализирующаяся на заказной локализацией китайских ИТ-решений, а также компания Open Source China, создавшая крупнейший в Китае и второй по величине в мире сервис хостинга репозиториев, содержащий 28 млн проектов, в числе пользователей которого более 12 млн разработчиков и 100 тыс. компаний Китая. Как сообщается в пресс-релизе, платформа gitee.ru развёрнута в дата-центре в Москве. В настоящее время ведётся работа по локализации и адаптации сервиса для России, а также разработка инструментов двухсторонней синхронизации репозиториев с gitee.com. Проводится глубокая локализация интерфейсов и сервисов gitee.com, а также наиболее популярных китайских проектов. Команда 3Logic Group локализует документацию по ним, текущие открытые задачи и описания сферы применения ПО. Поставлена задача разместить до конца года на gitee.ru 100 тыс. локализованных проектов с открытым исходным кодом. Платформа будет предоставлять как бесплатные, так и платные услуги хостинга и работы с репозиториями кода. Оплата будет производиться с использованием российских платёжных систем. Сервис предоставит российским корпоративным заказчикам возможность использовать наиболее передовые open source проекты из Китая, в частности, в области LLM и ИИ. Руководитель проекта gitee.ru компании Xellon, заявил, что было принято решение не создавать репозиторий с нуля, а «выстраивать его вокруг уже существующей экспертизы и большого сообщества». Он отметил, что в Китае разработка ПО на основе open source находится на «высочайшем уровне», а «наш проект, с одной стороны, предлагает российским командам и разработчикам хранить свой код на российской инфраструктуре, с другой стороны, иметь доступ к наработкам и выстраивать взаимодействие с китайскими коллегами». Как отметил «Коммерсантъ», в России за последние годы уже появилось несколько отечественных репозиториев, и у экспертов есть сомнения в том, что крупный бизнес захочет использовать китайский открытый код, опасаясь возможных рисков. Кроме того, платформа, по мнению экспертов, вряд ли будет признана российской, что закроет ей доступ в ряд секторов.
13.05.2024 [09:00], Сергей Карасёв
NVIDIA представила гибридные квантовые системы на платформе CUDA-QКомпания NVIDIA сообщила о том, что её платформа CUDA-Q будет использоваться в суперкомпьютерных центрах по всему миру. Она поможет ускорить исследования в области квантовых вычислений, что в перспективе позволит решать наиболее сложные научные задачи. Технология CUDA-Q предназначена для интеграции CPU, GPU и квантовых процессоров (QPU) и разработки приложений для них. Она даёт возможность выполнять сложные симуляции квантовых схем. О намерении использовать CUDA-Q в составе своих НРС-систем объявили организации в Германии, Японии и Польше. В частности, Юлихский суперкомпьютерный центр в Германии (JSC) намерен использовать квантовое решение производства IQM Quantum Computers в качестве дополнения к Jupiter — первому европейскому суперкомпьютеру экзафлопсного класса. Этот комплекс будет смонтирован в Юлихском исследовательском центре (FZJ). Суперкомпьютер Jupiter получит приблизительно 24 тыс. гибридных суперчипов NVIDIA GH200 Grace Hopper. Ещё одной гибридной системой, объединяющей классические и квантовые технологии, станет комплексе ABCI-Q, который расположится в суперкомпьютерном центре ABCI (AI Bridging Cloud Infrastructure) Национального института передовых промышленных наук и технологий Японии (AIST). В состав суперкомпьютера войдут QPU разработки QuEra, а также более 2000 ускорителей NVIDIA H100. Ввод ABCI-Q в эксплуатацию состоится в начале 2025 года. Применять систему планируется при проведении исследований в области ИИ, энергетики, биологии и пр. Вместе с тем Познаньский центр суперкомпьютерных и сетевых технологий (PSNC) в Польше приобрёл две квантовые вычислительные системы британской компании ORCA Computing. Они интегрированы в существующую HPC-инфраструктуру PSNC, которая в числе прочего использует изделия NVIDIA Hopper. Узлы на базе QPU помогут в решении задач в области химии, биологии и машинного обучения.
09.05.2024 [23:56], Владимир Мироненко
Red Hat представила ИИ-дистрибутив RHEL AI, который требует минимум 320 Гбайт GPU-памяти
ibm
ibm cloud
linux
llm
open source
openshift
red hat
red hat enterprise linux
software
ии
разработка
Red Hat представила Red Hat Enterprise Linux AI (RHEL AI), базовую платформу, которая позволит более эффективно разрабатывать, тестировать и запускать генеративные модели искусственного интеллекта (ИИ) для поддержки корпоративных приложений. Фактически это специализированный дистрибутив, включающий базовые модели, инструменты для работы с ними и необходимые драйверы.
Источник изображений: Red Hat Доступная сейчас в качестве превью для разработчиков, платформа RHEL AI включает в себя семейство больших языковых моделей (LLM) IBM Granite, недавно ставших доступными под лицензией Apache 2.0, инструментом тюнинга и доработки моделей InstructLab посредством методики LAB (Large-Scale Alignment for Chatbots), а также различные библиотеки и фреймворки. ![]() Решение представляется в виде готового для развёртывания образа и является частью MLOps-платформы OpenShift AI. По словам Red Hat, RHEL AI предоставляет поддерживаемую, готовую к корпоративному использованию среду для работы с ИИ-моделями на аппаратных платформах AMD, Intel и NVIDIA. По словам компании, open source подход позволит устранить препятствия на пути реализации стратегии в области ИИ, такие как недостаток навыков обработки данных и финансовых возможностей. Основная цель RHEL AI и проекта InstructLab — предоставить экспертам в предметной области возможность напрямую вносить свой вклад в большие языковые модели, используя свои знания и навыки. Новая платформа позволит им более эффективно создавать приложения с использованием ИИ, например, чат-боты. Впоследствии при наличии подписки RHEL AI компания предложит поддержку корпоративного уровня на протяжении всего жизненного цикла продукта, начиная с модели Granite 7B и ПО и заканчивая возможным возмещение ущерба в отношении интеллектуальной собственности. «Опираясь на инфраструктуру GPU, доступную в IBM Cloud, которая используется для обучения моделей Granite и поддержки InstructLab, IBM Cloud получит поддержку RHEL AI и OpenShift AI. Эта интеграция позволит предприятиям легче внедрять генеративный ИИ в свои критически важные приложения», — отметила компания. При этом прямо сейчас для запуска RHEL AI требуются весьма производительные сертифицированные системы с ускорителями, имеющими минимум 320 Гбайт памяти, а также хранилищем ёмкостью от 200 Гбайт. Среди протестированных указаны серверы Dell с четырьмя NVIDIA H100, Lenovo с восемью AMD Instinct MI300X, а также инстансы IBM Cloud GX3. Вскоре обещана поддержка инстансов AWS EC2 P5 с NVIDIA H100 и ускорителей Intel.
07.05.2024 [21:26], Руслан Авдеев
Apple работает над собственными серверными ИИ-ускорителямиКомпания Apple занимается разработкой собственных ИИ-полупроводников для дата-центров, передаёт The Wall Street Journal. В перспективе это поможет ей в «гонке вооружений», развернувшейся на рынке ИИ-решений. И у Apple есть ресурсы для создания передовых ИИ-чипов. В последние десять лет компания уже выбилась в лидеры полупроводниковой индустрии, представляя всё новые чипсеты для мобильных устройств и компьютеров Mac-серии. Как свидетельствуют источники СМИ, серверный проект Project ACDC (Apple Chips in Data Center) задействует компетенции компании в деле создания решений для ЦОД. Недавно сообщалось, что Apple наняла создателя ИИ-кластеров Google. Реализацию проекта Apple начала несколько лет назад, но данных о том, когда будут готовые первые чипы, пока нет. По имеющимся данным, компания уже тесно сотрудничает с TSMC. Предполагается, что чипы для серверов Apple будут оптимизированы для запуска ИИ-моделей, а не их обучения — на этом рынке по-прежнему будет доминировать NVIDIA. Время поджимает, поскольку Google и Microsoft уже имеют собственные ИИ-ускорители, хотя и разных классов — TPU и Maia 100. Обе компании имеют компетенции в области LLM, а Microsoft весьма дружна с OpenAI, которая тоже не прочь заняться «железом». Такое положение дел не устраивает инвесторов Apple, поскольку компания не продемонстрировала никаких впечатляющих успехов в соответствующей сфере, в то время как цена акций конкурентов продолжает расти на фоне новостей об их достижениях. В Apple пытаются убедить инвесторов, что это лишь временное явление и скоро грядут анонсы, связанные с ИИ. Опыт Apple в сфере разработки современных полупроводников должен помочь в создании ИИ-чипов. Сегодня компания представила 3-нм процессор M4 с самым мощным, по её словам, NPU в мире. Хотя компания добилась определённых успехов в разработке чипов для потребительской и профессиональной электроники, определённые задачи даются ей с трудом. Например, она всё ещё бьётся над созданием собственного беспроводного модуля. Хотя в Apple предпочли бы, чтобы большинство ИИ-вычислений осуществлялись силами самих чипов, некоторые задачи будут по-прежнему выполняться в облаке, где и пригодятся новые полупроводники. Это позволит компании лучше контролировать свою стратегию развития в сфере ИИ.
03.05.2024 [20:08], Владимир Мироненко
Новая платформа DevX Platform будет применяться при разработке всех ключевых продуктов МТСКомпания МТС объявила о запуске платформы для разработчиков DevX Platform, использование которой позволит значительно ускорить вывод на рынок новых продуктов и сервисов. DevX Platform, по словам компании, представляет собой единую среду разработки, позволяющую распространить стандарты работы на всех ИТ-специалистов экосистемы МТС, минимизировав количество рутинных операций на всех этапах — от проектирования до тестирования и развёртывания систем. Новая платформа предоставит разработчикам удобные средства командной работы, преимущественно на базе open source решений. Благодаря прозрачности процессов можно будет настроить инструменты измерения эффективности и управления разработкой, ускорить запуск новых продуктов и услуг, а также повысить качество кода. DevX Platform будет применяться в работе над всеми ключевыми продуктами МТС», — сообщается в пресс-релизе.
Источник изображения: МТС DevX Platform включает интеллектуального ассистента, который поможет повысить качество разработки за счёт набора обучаемых ML/AI-сервисов, обеспечивающих возможность трансляции с одного языка программирования на другой, автодополнение кода, генерацию документации, поиск и исправление ошибок в коде и другие функции на базе генеративного ИИ. Также новая платформа предлагает инструменты для коллаборации и обмена опытом. МТС отметила, что платформа предоставляет возможность бизнесу контролировать эффективность разработки, а для ИТ-специалистов — это удобная рабочая среда, которая содержит множество полезных инструментов. Прогнозируемый экономический эффект от внедрения DevX Platform составляет более 6 млрд руб. в течение пяти лет. |
|

