Материалы по тегу: ии
02.10.2023 [17:41], Владимир Мироненко
«Астра» станет первым российским разработчиком инфраструктурного ПО, который проведёт IPOПроизводитель инфраструктурного ПО «Астра» объявил о планах провести первичное размещение (IPO) акций на Мосбирже в этом месяце. Ранее ГК «Астра» впервые раскрыла финансовые результаты работы согласно международным стандартам финансовой отчётности (МСФО), что, по мнению экспертов, говорило о возможности подготовки компании к IPO.Теперь компания не скрывает своих планов. «Наши намерения выйти на Московскую биржу — логичный и закономерный шаг. Он свидетельствует о впечатляющих результатах группы и твёрдой уверенности в том, что бизнес продолжит развиваться и достигать поставленных целей. Наша команда убеждена, что IPO компании на Московской бирже станет ещё одним мотивирующим фактором для сотрудников, обеспечит дополнительные возможности для реализации дальнейших успешных M&A-приобретений, будет подтверждением стабильности и устойчивости бизнеса группы для наших заказчиков, а также позволит обратить ещё большее внимание инвесторов на российский IT-рынок, обладающий колоссальным потенциалом роста»», — заявил гендиректор ГК «Астра» Илья Сивцев. ![]() Источник изображения: astralinux.ru В компании отметили, это будет первое IPO среди российских разработчиков инфраструктурного ПО. Сообщается, что в рамках IPO действующие акционеры предложат инвесторам принадлежащие им акции. При этом будет предложено всего 5 % акций, поэтому это никак не отразится на акционерах, которые сохранят за собой преобладающую долю акций и «продолжат принимать участие в росте бизнеса группы и дальнейшем укреплении её лидерских позиций на российском рынке инфраструктурного ПО». Согласно отчёту за первое полугодие 2023 г., выполненному в соответствии с международными стандартами финансовой отчётности (МСФО), выручка «Астры» составила 3,11 млрд руб., превысив более чем в три раза результат первого полугодия 2022 г., составивший 1,009 млрд руб. Чистая прибыль равняется 1,163 млрд руб. против 0,497 млрд руб. в аналогичном периоде прошлого года.
01.10.2023 [20:55], Руслан Авдеев
Microsoft ищет более дешёвые в эксплуатации и простые альтернативы языковым моделям OpenAIХотя Microsoft принадлежит 49 % OpenAI, занимающейся разработкой популярных и производительных языковых моделей вроде GPT-4, интересы компаний не всегда совпадают. Как сообщает Silicon Angle, Bing Chat Enterprise первой и ChatGPT Enterprise второй, по сути, конкурируют за одну и ту же целевую аудиторию. Кроме того, Microsoft, стремящаяся внедрить ИИ почти во все свои программные продукты, готовит новые, более простые и менее ресурсоёмкие модели, чем GPT-4. По данным источников в OpenAI, в Microsoft обеспокоены высокой стоимостью эксплуатации передовых ИИ-моделей. Microsoft пытается встроить ИИ во многие продукты, включая Copilot для Windows на базе GPT-4. С учётом того, что пользователей Windows в мире больше 1 млрд, в компании опасаются, что повсеместное распространение ИИ-инструментов приведёт к неконтролируемому росту расходов. По некоторым данным, компания уже поручила части из своих 1,5 тыс. сотрудников ИИ-департамента заняться более экономичными альтернативами — пусть даже они будут не столь «сообразительными». Хотя реализация соответствующих проектов всё ещё находится на ранних стадиях, уже появилась информация, что компания начала внутренние тесты моделей собственной разработки. В частности, «творческий» и «точный» режимы Bing Chat опираются на GPT-4, тогда как «сбалансированный» использует новые модели Prometheus и Turing. Последняя может отвечать только на простые вопросы, а более каверзные она всё равно вынуждена передавать на обработку творению OpenAI. Для программистов у Microsoft есть модель Phi-1 с 1,3 млрд параметров, которая может эффективно генерировать код, но в остальном отстаёт от GPT-4. Ещё одной альтернативой стала разработанная Microsoft модель Orca на основе Meta✴ Llama-2, принадлежащей Meta✴. По некоторым данным, Orca близка по возможностям к моделям OpenAI, но компактнее и требует значительно меньше ресурсов. Считается, что подразделение Microsoft использует около 2 тыс. ускорителей NVIDIA, большинство из которых сегодня и применяется для тренировки более эффективных моделей, имеющих узкую специализацию в отличие от многопрофильной GPT-4. Если раньше состязание на рынке шло за создание ИИ с наибольшими возможностями, то теперь одним из важнейших факторов становится стоимость разработки и обслуживания таких инструментов.
30.09.2023 [23:18], Алексей Степин
Intel отказалась от ИИ-ускорителей Habana GrecoОдним из столпов своей ИИ-платформы Intel сделала разработки поглощённой когда-то Habana Labs. Но если ускорители Gaudi2 оказались конкурентоспособными, то ветку инференс-решений Goya/Greco было решено свернуть. Любопытно, что на мероприятии Intel Innovation 2023 имя Habana Labs не упоминалось, а использовалось исключительно название Intel Gaudi. Дела у данной платформы, базирующейся на ускорителе Gaudi2, обстоят неплохо. Так, в частности, она имеет поддержку FP8-вычислений и, согласно данным Intel, не только серьёзно опережает NVIDIA A100, но успешно соперничает с H100. Фактически в тестах MLPerf только Intel смогла составить хоть какую-то серьёзную конкуренцию NVIDIA. Однако не все разработки Habana имеют счастливую судьбу. В 2022 году одновременно с Gaudi2 был анонсирован и инференс-ускоритель Greco, поставки которого должны были начаться во II полугодии 2023 года. Но сейчас, похоже, данная платформа признана бесперспективной. Intel не только убрала все упоминания Greco со своего сайта и ни словом не обмолвилась о них на мероприятии, но и подчистила Linux-драйвер несколько дней назад. А вот появление Gaudi3 уже не за горами.
30.09.2023 [16:02], Сергей Карасёв
ИИ за углом: Cloudflare внедрит ускорители NVIDIA в своей глобальной edge-сетиАмериканская компания Cloudflare, предоставляющая услуги CDN, по сообщению Datacenter Dynamics, будет использовать ускорители NVIDIA в своей глобальной edge-сети для обработки ресурсоёмких нагрузок ИИ, в частности, больших языковых моделей (LLM). Как отмечает ресурс NetworkWorld, инициатива носит название Workers AI. Заказчики смогут получать доступ к мощностям устройств NVIDIA для реализации своих ИИ-проектов. Cloudflare также задействует коммутаторы NVIDIA Ethernet и полный набор софта NVIDIA для инференса, включая TensorRT-LLM и Triton Inference. Поначалу не планируется поддержка пользовательских ИИ-моделей: клиентам будет предоставляться доступ только к Meta✴ Llama 2 7B и M2m100-1.2, OpenAI Whisper, Hugging Face Distilbert-sst-2-int8, Microsoft Resnet-50 и Baai bge-base-en-v1.5. В будущем этот перечень планируется расширять. О моделях ускорителей, которые возьмёт на вооружение Cloudflare, ничего не говорится. Но отмечается, что к концу 2023 года решения NVIDIA будут внедрены более чем в 100 городах, а в течение 2024-го они появятся почти во всех зонах присутствия Cloudflare. Глобальная edge-сеть компании использует ЦОД более чем в 300 городах по всему миру. ![]() Источник изображения: NVIDIA Ещё одной новой инициативой Cloudflare в области ИИ является Vectorize — векторная база данных. Она поможет разработчикам создавать приложения на основе ИИ полностью на платформе Cloudflare. Говорится, что Vectorize получит интеграцию с Workers AI. Наконец, готовится AI Gateway — система оптимизации и управления производительностью, предназначенная для работы с ИИ-приложениями, развёрнутыми в сети Cloudflare.
30.09.2023 [15:38], Сергей Карасёв
Китайский разработчик облачных ИИ-чипов Enflame привлёк почти $275 млнКитайский разработчик ИИ-решений Enflame Technology Co., по сообщению ресурса SiliconAngle, провёл крупный раунд финансирования Series D, в рамках которого на развитие привлечено ¥2 млрд (приблизительно $274,2 млн). Стартап Enflame был основан в 2018 году. Он проектирует специализированные «облачные ИИ-чипы для глубокого обучения». Основателем и генеральным директором Enflame является Чжао Лидун (Zhao Lidong). В январе 2021 года компания Enflame получила инвестиции в размере ¥1,8 млрд (около $246,8 млн). В раунде приняли участие Primavera Capital Group, CITIC Private Equity и CICC Capital. В июне 2022-го последовал расширенный раунд Series C, возглавляемый Китайским инвестиционным фондом промышленности интегральных микросхем II. Программу финансирования Series D, как сообщается, возглавила структура Shanghai International Group Co. Кроме того, средства предоставили Tencent Holdings, SummitView Capital, YTI Capital, Hundreds Capital, Redpoint China Ventures и GF Qianhe Investment. По словам Лидуна, полученные деньги позволят компании создавать более конкурентоспособные ИИ-решения благодаря сотрудничеству с лидерами отрасли. Отмечается, что Лидун имеет большой опыт работы в индустрии производства компьютерных чипов: ранее он занимал руководящие должности в китайском государственном полупроводниковом конгломерате Tsinghua Unigroup Ltd.
29.09.2023 [23:55], Алексей Степин
Без CUDA никуда? ИИ-стартап Lamini полагается исключительно на ускорители AMD InstinctКогда речь заходит о больших языковых моделях (LLM), то чаще всего подразумевается их обучение, дообучение и запуск на аппаратном обеспечении NVIDIA, как наиболее широко распространённом и лучше всего освоенном разработчиками. Но эта тенденция понемногу меняется — появляются либо специфические решения, могущие поспорить в эффективности с ускорителями NVIDIA, либо разработчики осваивают другое «железо». К числу последних принадлежит ИИ-стартап Lamini, сделавший ставку на решения AMD: ускорители Instinct и стек ROCm. Главным продуктом Lamini должна стать программно-аппаратная платформа Superstation, позволяющая создавать и развёртывать проекты на базе генеративного ИИ, дообучая базовые модели на данных клиента. Напомним, ROCm представляет собой своего рода аналог NVIDIA CUDA, но упор в решении AMD сделан на более широкую поддержку аппаратного обеспечения, куда входят не только ускорители и GPU, но также CPU и FPGA — всё в рамках инициативы Unified AI Stack. К тому же в этом году у ROCm появилась интеграция с популярнейшим фреймворком PyTorch, который в версии 2.0 получил поддержку ускорителей AMD Instinct. Что же касается Lamini и её проекта, то, по словам основателей, он привлёк внимание уже более 5 тыс. потенциальных клиентов. Интерес к платформе проявили, например, Amazon, Walmart, eBay, GitLab и Adobe. В настоящее время платформа Lamini уже более года работает на кластере, включающем в себя более 100 ускорителей AMD Instinct MI250, и обслуживает клиентов. При этом заявляется возможность масштабирования до «тысяч таких ускорителей». Более того, AMD сама активно пользуется услугами Lamini. На данный момент это единственная LLM-платформа, целиком работающая на аппаратном обеспечении AMD, при этом стоимость запуска на ней ИИ-модели Meta✴ Llama 2 с 70 млрд параметров, как сообщается, на порядок дешевле, нежели в облаке AWS. Солидный объём набортной памяти (128 Гбайт) у MI250 позволяет разработчикам запускать более сложные модели, чем на A100. Согласно тестам, проведённым Lamini для менее мощного ускорителя AMD Instinct MI210, аппаратное обеспечение «красных» способно демонстрировать в реальных условиях до 89% от теоретически возможного в тесте GEMM и до 70% от теоретической пропускной способности функции ROCm hipMemcpy. Выбор Lamini несомненно принесёт AMD пользу в продвижении своих решений на рынке ИИ. К тому же в настоящее время они более доступны, чем от NVIDIA H10. Сама AMD объявила на мероприятии AI Hardware Summit, что развитие платформы ROCm в настоящее время является приоритетным для компании.
29.09.2023 [22:57], Руслан Авдеев
Французская iliad Group приобрела ИИ-кластер NVIDIA DGX SuperPOD из 1016 ускорителей H100 и задумала создать универсальный ИИФранцузская ГК iliad Group заявила о приобретении системы NVIDIA DGX SuperPOD для предоставления участникам европейского рынка IT «самого мощного» в регионе облачного ИИ-суперкомпьютера, включающего 1016 ускорителей H100 (127 систем DGX последнего поколения). За покупку отвечал облачный провайдер Scaleway, а сама машина разместилась в ЦОД Datacenter 5 в окрестностях Парижа. Это только первый шаг компании на пути к достижению краткосрочной цели по предоставлению новых вычислительных мощностей клиентам. Для того, чтобы удовлетворить любые запросы клиентов, Scaleway обеспечила предоставление вычислительных мощностей небольшими блоками, по паре связанных серверов DGX H100 в каждом. В ближайшие месяцы Scaleway продолжит наращивать вычислительные способности платформы. Кроме того, iliad анонсировала создание в Париже ИИ-лаборатории, в которую уже инвестировано более €100 млн. Её главой стал миллиардер Ксавье Ниль (Xavier Niel), фактически контролирующий iliad Group. Лаборатория, как сообщается, привлекла известных исследователей из крупнейших международных компаний. Основной целью лаборатории станет помощь в создании универсального ИИ, а результаты исследований в этом направлении будут доступны публично.
29.09.2023 [21:29], Владимир Мироненко
AWS объявила о доступности Bedrock: широкий выбор базовых ИИ-моделей и тонкая настройка под нужды клиентаAmazon Web Services объявила об доступности сервиса Bedrock, анонсированного в апреле этого года. Amazon Bedrock представляет собой управляемый сервис, предлагающий высокопроизводительные базовые модели (FM) как от Amazon, так и от ведущих провайдеров, включая AI21 Labs, Anthropic, Cohere, Meta✴, Stability AI, а также широкий набор возможностей для создания клиентами собственных приложений на основе генеративного ИИ и их настройки с использованием собственных данных. По словам Amazon, в ближайшие недели в Bedrock появится большая языковая модель (LLM) Llama 2 от Meta✴ с 13 и 70 млрд параметров. Кроме того, в рамках недавно объявленного стратегического сотрудничества все будущие FM от Anthropic будут доступны в Amazon Bedrock с ранним доступом к уникальным функциям для кастомизации моделей и их тонкой настройки. Широкий выбор моделей, включая собственные модели Amazon Titan Embeddings, даст клиентам возможность найти нужное решение для каждого варианта применения и дообучить модель для достижения лучших результатов. ![]() Источник изображения: Amazon Поскольку Amazon Bedrock является бессерверным сервисом, клиентам не нужно управлять какой-либо инфраструктурой. CloudWatch поможет в отслеживании использования Bedrock и создании дашбордов, а CloudTrail — в мониторинге API и устранении проблем при интеграции с другими системами. Bedrock позволяет создавать приложения, соответствующие общему регламенту ЕС по защите данных (GDPR) или выполнять конфиденциальные рабочие нагрузки, регулируемых Законом США о переносимости и подотчетности медицинского страхования (HIPAA).
29.09.2023 [20:06], Сергей Карасёв
C3 Solutions выпустила блоки распределения питания на российских процессорах «Байкал»Российский IT-производитель С3 Solutions представил блоки распределения питания (PDU), построенные на процессоре «Байкал». Это, как утверждается, первые полностью отечественные устройства данного типа, появления которых актуально в условиях импортозамещения. Заказчики могут выбрать модель с необходимым количеством разъёмов из четырёх различных серий: с мониторингом по группам (семейство «Мониторинг»); с индивидуальным мониторингом по каждой розетке («Мониторинг+»); с индивидуальным управлением по каждой розетке и групповым мониторингом («Управление»); с индивидуальным мониторингом и управлением по каждой розетке («Управление+»). В основу анонсированных БРП положен чип Baikal-T (BE-T1000), который содержит два MIPS-ядра с тактовой частотой до 1,2 ГГц. Его ресурсов, как отмечает С3 Solutions, достаточно для мониторинга блока распределения питания, а небольшое тепловыделение позволяет обойтись пассивным охлаждением. Новинки выполнены на модульной платформе, что позволяет конфигурировать количество и тип выходных разъёмов, выбирая сменные блоки розеток. Поддерживаются варианты с С13, С19 и Schuko, причём разъёмы С13 и С19 оснащены механизмом фиксации вилки силового шнура. В свою очередь, модуль мониторинга располагает цветным дисплеем с возможностью поворота экрана на 180°. Поддерживается веб-интерфейс и подключение по протоколам SNMP, Modbus и MQTT с возможностью управления группой PDU. Можно отслеживать параметры электропотребления как по фазам и группам, так и по каждой розетке. Также есть возможность подключить датчики температуры, влажности, протечек воды, задымления и открытия дверей шкафа.
29.09.2023 [18:59], Руслан Авдеев
У «Лукоморья» код «зелёный»: «Ростелеком» компенсирует дефицит кадров внедрением ИИНехватка кадров в «Ростелекоме» привела к решению автоматизировать ряд процессов с помощью искусственного интеллекта (ИИ) собственной разработки. Как сообщает «Коммерсантъ», будут частично автоматизированы разработка ПО, аналитика и тестирование. Впрочем, эксперты опасаются, что масштабное стимулирование властями подготовки IT-специалистов может привести к избытку кадров на фоне внедрения ИИ и снижению зарплат. О намерении компенсировать дефицит специалистов ИИ-разработками сообщил на днях вице-президент «Ростелекома» по IT. По его словам, подготовкой к этому необходимо заниматься уже сейчас, чтобы получить результат через два–три года. Позже в компании уточнили, что речь идёт о проекте «Лукоморье», касающегося полного цикла разработки ПО, от бизнес-анализа и проектирования до тестирования и создания документации. При этом в компании обещают не заменять ею действующих IT-специалистов. ![]() Источник изображения: julien Tromeur/unsplash.com По данным «Ростелекома», «Лукоморье» найдёт применение как в проектах самой компании, так и в сторонних бизнесах, которые тоже будут приобретать новые решения для устранения кадрового голода. Хотя бюджет проекта остаётся в секрете, некоторые эксперты оценивают его в сумму от в 1,5 млрд руб., а некоторые и вовсе говорят о «миллиардах рублей»ещё на этапе обучения нейросети, причём на реализацию даже базового проекта уйдут годы. Глава Минцифры считает, что дефицит IT-специалистов в России составляет 500–700 тыс. человек. Поэтому многие крупные компании обращаются к ИИ. Например, чат-бот GigaChat от Сбербанка пополнился инструментом разработки и дополнения кода GigaCode. Активно развивает собственные технологии соответствующего профиля и «Яндекс». При этом эксперты уверены, что нейросети послужат лишь вспомогательным инструментом, а полного исключения людей из работы ожидать не стоит. Впрочем, допускается появление новых IT-специальностей, связанных именно с ИИ, а готовых специалистов действительно может оказаться в избытке. Некоторые эксперты прогнозируют избыток IT-специалистов в течение следующих 10 лет, что приведёт к падению зарплат в отрасли. Согласно весенним прогнозам Goldman Sachs, ИИ позволит автоматизировать порядка 300 млн рабочих мест в мире, а в McKinsey предполагают, что уже в ближайшее время в США автоматизируют до 30 % рабочего времени, сообщает «Коммерсантъ». |
|