Материалы по тегу: ии

02.10.2023 [17:41], Владимир Мироненко

«Астра» станет первым российским разработчиком инфраструктурного ПО, который проведёт IPO

Производитель инфраструктурного ПО «Астра» объявил о планах провести первичное размещение (IPO) акций на Мосбирже в этом месяце. Ранее ГК «Астра» впервые раскрыла финансовые результаты работы согласно международным стандартам финансовой отчётности (МСФО), что, по мнению экспертов, говорило о возможности подготовки компании к IPO.Теперь компания не скрывает своих планов.

«Наши намерения выйти на Московскую биржу — логичный и закономерный шаг. Он свидетельствует о впечатляющих результатах группы и твёрдой уверенности в том, что бизнес продолжит развиваться и достигать поставленных целей. Наша команда убеждена, что IPO компании на Московской бирже станет ещё одним мотивирующим фактором для сотрудников, обеспечит дополнительные возможности для реализации дальнейших успешных M&A-приобретений, будет подтверждением стабильности и устойчивости бизнеса группы для наших заказчиков, а также позволит обратить ещё большее внимание инвесторов на российский IT-рынок, обладающий колоссальным потенциалом роста»», — заявил гендиректор ГК «Астра» Илья Сивцев.

 Источник изображения: astralinux.ru

Источник изображения: astralinux.ru

В компании отметили, это будет первое IPO среди российских разработчиков инфраструктурного ПО. Сообщается, что в рамках IPO действующие акционеры предложат инвесторам принадлежащие им акции. При этом будет предложено всего 5 % акций, поэтому это никак не отразится на акционерах, которые сохранят за собой преобладающую долю акций и «продолжат принимать участие в росте бизнеса группы и дальнейшем укреплении её лидерских позиций на российском рынке инфраструктурного ПО».

Согласно отчёту за первое полугодие 2023 г., выполненному в соответствии с международными стандартами финансовой отчётности (МСФО), выручка «Астры» составила 3,11 млрд руб., превысив более чем в три раза результат первого полугодия 2022 г., составивший 1,009 млрд руб. Чистая прибыль равняется 1,163 млрд руб. против 0,497 млрд руб. в аналогичном периоде прошлого года.

Постоянный URL: http://servernews.ru/1093880
01.10.2023 [20:55], Руслан Авдеев

Microsoft ищет более дешёвые в эксплуатации и простые альтернативы языковым моделям OpenAI

Хотя Microsoft принадлежит 49 % OpenAI, занимающейся разработкой популярных и производительных языковых моделей вроде GPT-4, интересы компаний не всегда совпадают. Как сообщает Silicon Angle, Bing Chat Enterprise первой и ChatGPT Enterprise второй, по сути, конкурируют за одну и ту же целевую аудиторию. Кроме того, Microsoft, стремящаяся внедрить ИИ почти во все свои программные продукты, готовит новые, более простые и менее ресурсоёмкие модели, чем GPT-4.

По данным источников в OpenAI, в Microsoft обеспокоены высокой стоимостью эксплуатации передовых ИИ-моделей. Microsoft пытается встроить ИИ во многие продукты, включая Copilot для Windows на базе GPT-4. С учётом того, что пользователей Windows в мире больше 1 млрд, в компании опасаются, что повсеместное распространение ИИ-инструментов приведёт к неконтролируемому росту расходов. По некоторым данным, компания уже поручила части из своих 1,5 тыс. сотрудников ИИ-департамента заняться более экономичными альтернативами — пусть даже они будут не столь «сообразительными».

 Источник изображения: Microsoft

Источник изображения: Microsoft

Хотя реализация соответствующих проектов всё ещё находится на ранних стадиях, уже появилась информация, что компания начала внутренние тесты моделей собственной разработки. В частности, «творческий» и «точный» режимы Bing Chat опираются на GPT-4, тогда как «сбалансированный» использует новые модели Prometheus и Turing. Последняя может отвечать только на простые вопросы, а более каверзные она всё равно вынуждена передавать на обработку творению OpenAI.

Для программистов у Microsoft есть модель Phi-1 с 1,3 млрд параметров, которая может эффективно генерировать код, но в остальном отстаёт от GPT-4. Ещё одной альтернативой стала разработанная Microsoft модель Orca на основе Meta Llama-2, принадлежащей Meta. По некоторым данным, Orca близка по возможностям к моделям OpenAI, но компактнее и требует значительно меньше ресурсов.

Считается, что подразделение Microsoft использует около 2 тыс. ускорителей NVIDIA, большинство из которых сегодня и применяется для тренировки более эффективных моделей, имеющих узкую специализацию в отличие от многопрофильной GPT-4. Если раньше состязание на рынке шло за создание ИИ с наибольшими возможностями, то теперь одним из важнейших факторов становится стоимость разработки и обслуживания таких инструментов.

Постоянный URL: http://servernews.ru/1093831
30.09.2023 [23:18], Алексей Степин

Intel отказалась от ИИ-ускорителей Habana Greco

Одним из столпов своей ИИ-платформы Intel сделала разработки поглощённой когда-то Habana Labs. Но если ускорители Gaudi2 оказались конкурентоспособными, то ветку инференс-решений Goya/Greco было решено свернуть.

Любопытно, что на мероприятии Intel Innovation 2023 имя Habana Labs не упоминалось, а использовалось исключительно название Intel Gaudi. Дела у данной платформы, базирующейся на ускорителе Gaudi2, обстоят неплохо. Так, в частности, она имеет поддержку FP8-вычислений и, согласно данным Intel, не только серьёзно опережает NVIDIA A100, но успешно соперничает с H100. Фактически в тестах MLPerf только Intel смогла составить хоть какую-то серьёзную конкуренцию NVIDIA.

 Изображение: Intel

Изображение: Intel

Однако не все разработки Habana имеют счастливую судьбу. В 2022 году одновременно с Gaudi2 был анонсирован и инференс-ускоритель Greco, поставки которого должны были начаться во II полугодии 2023 года. Но сейчас, похоже, данная платформа признана бесперспективной. Intel не только убрала все упоминания Greco со своего сайта и ни словом не обмолвилась о них на мероприятии, но и подчистила Linux-драйвер несколько дней назад. А вот появление Gaudi3 уже не за горами.

Постоянный URL: http://servernews.ru/1093830
30.09.2023 [16:02], Сергей Карасёв

ИИ за углом: Cloudflare внедрит ускорители NVIDIA в своей глобальной edge-сети

Американская компания Cloudflare, предоставляющая услуги CDN, по сообщению Datacenter Dynamics, будет использовать ускорители NVIDIA в своей глобальной edge-сети для обработки ресурсоёмких нагрузок ИИ, в частности, больших языковых моделей (LLM). Как отмечает ресурс NetworkWorld, инициатива носит название Workers AI. Заказчики смогут получать доступ к мощностям устройств NVIDIA для реализации своих ИИ-проектов.

Cloudflare также задействует коммутаторы NVIDIA Ethernet и полный набор софта NVIDIA для инференса, включая TensorRT-LLM и Triton Inference. Поначалу не планируется поддержка пользовательских ИИ-моделей: клиентам будет предоставляться доступ только к Meta Llama 2 7B и M2m100-1.2, OpenAI Whisper, Hugging Face Distilbert-sst-2-int8, Microsoft Resnet-50 и Baai bge-base-en-v1.5. В будущем этот перечень планируется расширять.

О моделях ускорителей, которые возьмёт на вооружение Cloudflare, ничего не говорится. Но отмечается, что к концу 2023 года решения NVIDIA будут внедрены более чем в 100 городах, а в течение 2024-го они появятся почти во всех зонах присутствия Cloudflare. Глобальная edge-сеть компании использует ЦОД более чем в 300 городах по всему миру.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Ещё одной новой инициативой Cloudflare в области ИИ является Vectorize — векторная база данных. Она поможет разработчикам создавать приложения на основе ИИ полностью на платформе Cloudflare. Говорится, что Vectorize получит интеграцию с Workers AI. Наконец, готовится AI Gateway — система оптимизации и управления производительностью, предназначенная для работы с ИИ-приложениями, развёрнутыми в сети Cloudflare.

Постоянный URL: http://servernews.ru/1093822
30.09.2023 [15:38], Сергей Карасёв

Китайский разработчик облачных ИИ-чипов Enflame привлёк почти $275 млн

Китайский разработчик ИИ-решений Enflame Technology Co., по сообщению ресурса SiliconAngle, провёл крупный раунд финансирования Series D, в рамках которого на развитие привлечено ¥2 млрд (приблизительно $274,2 млн). Стартап Enflame был основан в 2018 году. Он проектирует специализированные «облачные ИИ-чипы для глубокого обучения». Основателем и генеральным директором Enflame является Чжао Лидун (Zhao Lidong).

В январе 2021 года компания Enflame получила инвестиции в размере ¥1,8 млрд (около $246,8 млн). В раунде приняли участие Primavera Capital Group, CITIC Private Equity и CICC Capital. В июне 2022-го последовал расширенный раунд Series C, возглавляемый Китайским инвестиционным фондом промышленности интегральных микросхем II.

 Изображение: Enflame

Изображение: Enflame

Программу финансирования Series D, как сообщается, возглавила структура Shanghai International Group Co. Кроме того, средства предоставили Tencent Holdings, SummitView Capital, YTI Capital, Hundreds Capital, Redpoint China Ventures и GF Qianhe Investment.

По словам Лидуна, полученные деньги позволят компании создавать более конкурентоспособные ИИ-решения благодаря сотрудничеству с лидерами отрасли. Отмечается, что Лидун имеет большой опыт работы в индустрии производства компьютерных чипов: ранее он занимал руководящие должности в китайском государственном полупроводниковом конгломерате Tsinghua Unigroup Ltd.

Постоянный URL: http://servernews.ru/1093818
29.09.2023 [23:55], Алексей Степин

Без CUDA никуда? ИИ-стартап Lamini полагается исключительно на ускорители AMD Instinct

Когда речь заходит о больших языковых моделях (LLM), то чаще всего подразумевается их обучение, дообучение и запуск на аппаратном обеспечении NVIDIA, как наиболее широко распространённом и лучше всего освоенном разработчиками. Но эта тенденция понемногу меняется — появляются либо специфические решения, могущие поспорить в эффективности с ускорителями NVIDIA, либо разработчики осваивают другое «железо».

К числу последних принадлежит ИИ-стартап Lamini, сделавший ставку на решения AMD: ускорители Instinct и стек ROCm. Главным продуктом Lamini должна стать программно-аппаратная платформа Superstation, позволяющая создавать и развёртывать проекты на базе генеративного ИИ, дообучая базовые модели на данных клиента.

 Изображения: Lamini

Изображения: Lamini

Напомним, ROCm представляет собой своего рода аналог NVIDIA CUDA, но упор в решении AMD сделан на более широкую поддержку аппаратного обеспечения, куда входят не только ускорители и GPU, но также CPU и FPGA — всё в рамках инициативы Unified AI Stack. К тому же в этом году у ROCm появилась интеграция с популярнейшим фреймворком PyTorch, который в версии 2.0 получил поддержку ускорителей AMD Instinct.

Что же касается Lamini и её проекта, то, по словам основателей, он привлёк внимание уже более 5 тыс. потенциальных клиентов. Интерес к платформе проявили, например, Amazon, Walmart, eBay, GitLab и Adobe. В настоящее время платформа Lamini уже более года работает на кластере, включающем в себя более 100 ускорителей AMD Instinct MI250, и обслуживает клиентов. При этом заявляется возможность масштабирования до «тысяч таких ускорителей». Более того, AMD сама активно пользуется услугами Lamini.

На данный момент это единственная LLM-платформа, целиком работающая на аппаратном обеспечении AMD, при этом стоимость запуска на ней ИИ-модели Meta Llama 2 с 70 млрд параметров, как сообщается, на порядок дешевле, нежели в облаке AWS. Солидный объём набортной памяти (128 Гбайт) у MI250 позволяет разработчикам запускать более сложные модели, чем на A100.

Согласно тестам, проведённым Lamini для менее мощного ускорителя AMD Instinct MI210, аппаратное обеспечение «красных» способно демонстрировать в реальных условиях до 89% от теоретически возможного в тесте GEMM и до 70% от теоретической пропускной способности функции ROCm hipMemcpy.

Выбор Lamini несомненно принесёт AMD пользу в продвижении своих решений на рынке ИИ. К тому же в настоящее время они более доступны, чем от NVIDIA H10. Сама AMD объявила на мероприятии AI Hardware Summit, что развитие платформы ROCm в настоящее время является приоритетным для компании.

Постоянный URL: http://servernews.ru/1093795
29.09.2023 [22:57], Руслан Авдеев

Французская iliad Group приобрела ИИ-кластер NVIDIA DGX SuperPOD из 1016 ускорителей H100 и задумала создать универсальный ИИ

Французская ГК iliad Group заявила о приобретении системы NVIDIA DGX SuperPOD для предоставления участникам европейского рынка IT «самого мощного» в регионе облачного ИИ-суперкомпьютера, включающего 1016 ускорителей H100 (127 систем DGX последнего поколения). За покупку отвечал облачный провайдер Scaleway, а сама машина разместилась в ЦОД Datacenter 5 в окрестностях Парижа.

 Фото: iliad Group

Фото: iliad Group

Это только первый шаг компании на пути к достижению краткосрочной цели по предоставлению новых вычислительных мощностей клиентам. Для того, чтобы удовлетворить любые запросы клиентов, Scaleway обеспечила предоставление вычислительных мощностей небольшими блоками, по паре связанных серверов DGX H100 в каждом. В ближайшие месяцы Scaleway продолжит наращивать вычислительные способности платформы.

Кроме того, iliad анонсировала создание в Париже ИИ-лаборатории, в которую уже инвестировано более €100 млн. Её главой стал миллиардер Ксавье Ниль (Xavier Niel), фактически контролирующий iliad Group. Лаборатория, как сообщается, привлекла известных исследователей из крупнейших международных компаний. Основной целью лаборатории станет помощь в создании универсального ИИ, а результаты исследований в этом направлении будут доступны публично.

Постоянный URL: http://servernews.ru/1093784
29.09.2023 [21:29], Владимир Мироненко

AWS объявила о доступности Bedrock: широкий выбор базовых ИИ-моделей и тонкая настройка под нужды клиента

Amazon Web Services объявила об доступности сервиса Bedrock, анонсированного в апреле этого года. Amazon Bedrock представляет собой управляемый сервис, предлагающий высокопроизводительные базовые модели (FM) как от Amazon, так и от ведущих провайдеров, включая AI21 Labs, Anthropic, Cohere, Meta, Stability AI, а также широкий набор возможностей для создания клиентами собственных приложений на основе генеративного ИИ и их настройки с использованием собственных данных.

По словам Amazon, в ближайшие недели в Bedrock появится большая языковая модель (LLM) Llama 2 от Meta с 13 и 70 млрд параметров. Кроме того, в рамках недавно объявленного стратегического сотрудничества все будущие FM от Anthropic будут доступны в Amazon Bedrock с ранним доступом к уникальным функциям для кастомизации моделей и их тонкой настройки. Широкий выбор моделей, включая собственные модели Amazon Titan Embeddings, даст клиентам возможность найти нужное решение для каждого варианта применения и дообучить модель для достижения лучших результатов.

 Источник изображения: Amazon

Источник изображения: Amazon

Поскольку Amazon Bedrock является бессерверным сервисом, клиентам не нужно управлять какой-либо инфраструктурой. CloudWatch поможет в отслеживании использования Bedrock и создании дашбордов, а CloudTrail — в мониторинге API и устранении проблем при интеграции с другими системами. Bedrock позволяет создавать приложения, соответствующие общему регламенту ЕС по защите данных (GDPR) или выполнять конфиденциальные рабочие нагрузки, регулируемых Законом США о переносимости и подотчетности медицинского страхования (HIPAA).

Постоянный URL: http://servernews.ru/1093782
29.09.2023 [20:06], Сергей Карасёв

C3 Solutions выпустила блоки распределения питания на российских процессорах «Байкал»

Российский IT-производитель С3 Solutions представил блоки распределения питания (PDU), построенные на процессоре «Байкал». Это, как утверждается, первые полностью отечественные устройства данного типа, появления которых актуально в условиях импортозамещения.

Заказчики могут выбрать модель с необходимым количеством разъёмов из четырёх различных серий: с мониторингом по группам (семейство «Мониторинг»); с индивидуальным мониторингом по каждой розетке («Мониторинг+»); с индивидуальным управлением по каждой розетке и групповым мониторингом («Управление»); с индивидуальным мониторингом и управлением по каждой розетке («Управление+»).

 Источник изображения: С3 Solutions

Источник изображения: С3 Solutions

В основу анонсированных БРП положен чип Baikal-T (BE-T1000), который содержит два MIPS-ядра с тактовой частотой до 1,2 ГГц. Его ресурсов, как отмечает С3 Solutions, достаточно для мониторинга блока распределения питания, а небольшое тепловыделение позволяет обойтись пассивным охлаждением. Новинки выполнены на модульной платформе, что позволяет конфигурировать количество и тип выходных разъёмов, выбирая сменные блоки розеток. Поддерживаются варианты с С13, С19 и Schuko, причём разъёмы С13 и С19 оснащены механизмом фиксации вилки силового шнура.

В свою очередь, модуль мониторинга располагает цветным дисплеем с возможностью поворота экрана на 180°. Поддерживается веб-интерфейс и подключение по протоколам SNMP, Modbus и MQTT с возможностью управления группой PDU. Можно отслеживать параметры электропотребления как по фазам и группам, так и по каждой розетке. Также есть возможность подключить датчики температуры, влажности, протечек воды, задымления и открытия дверей шкафа.

Постоянный URL: http://servernews.ru/1093777
29.09.2023 [18:59], Руслан Авдеев

У «Лукоморья» код «зелёный»: «Ростелеком» компенсирует дефицит кадров внедрением ИИ

Нехватка кадров в «Ростелекоме» привела к решению автоматизировать ряд процессов с помощью искусственного интеллекта (ИИ) собственной разработки. Как сообщает «Коммерсантъ», будут частично автоматизированы разработка ПО, аналитика и тестирование. Впрочем, эксперты опасаются, что масштабное стимулирование властями подготовки IT-специалистов может привести к избытку кадров на фоне внедрения ИИ и снижению зарплат.

О намерении компенсировать дефицит специалистов ИИ-разработками сообщил на днях вице-президент «Ростелекома» по IT. По его словам, подготовкой к этому необходимо заниматься уже сейчас, чтобы получить результат через два–три года. Позже в компании уточнили, что речь идёт о проекте «Лукоморье», касающегося полного цикла разработки ПО, от бизнес-анализа и проектирования до тестирования и создания документации. При этом в компании обещают не заменять ею действующих IT-специалистов.

 Источник изображения: julien Tromeur/unsplash.com

Источник изображения: julien Tromeur/unsplash.com

По данным «Ростелекома», «Лукоморье» найдёт применение как в проектах самой компании, так и в сторонних бизнесах, которые тоже будут приобретать новые решения для устранения кадрового голода. Хотя бюджет проекта остаётся в секрете, некоторые эксперты оценивают его в сумму от в 1,5 млрд руб., а некоторые и вовсе говорят о «миллиардах рублей»ещё на этапе обучения нейросети, причём на реализацию даже базового проекта уйдут годы.

Глава Минцифры считает, что дефицит IT-специалистов в России составляет 500–700 тыс. человек. Поэтому многие крупные компании обращаются к ИИ. Например, чат-бот GigaChat от Сбербанка пополнился инструментом разработки и дополнения кода GigaCode. Активно развивает собственные технологии соответствующего профиля и «Яндекс». При этом эксперты уверены, что нейросети послужат лишь вспомогательным инструментом, а полного исключения людей из работы ожидать не стоит. Впрочем, допускается появление новых IT-специальностей, связанных именно с ИИ, а готовых специалистов действительно может оказаться в избытке.

Некоторые эксперты прогнозируют избыток IT-специалистов в течение следующих 10 лет, что приведёт к падению зарплат в отрасли. Согласно весенним прогнозам Goldman Sachs, ИИ позволит автоматизировать порядка 300 млн рабочих мест в мире, а в McKinsey предполагают, что уже в ближайшее время в США автоматизируют до 30 % рабочего времени, сообщает «Коммерсантъ».

Постоянный URL: http://servernews.ru/1093779

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus