Материалы по тегу: ии

09.10.2023 [12:33], Сергей Карасёв

В России появятся отечественные серверы и СХД на китайских процессорах Loongson

Российская компания «Норси-Транс», по информации газеты «Коммерсантъ», организует выпуск серверов, СХД, настольных компьютеров и ноутбуков на китайских процессорах Loongson. Партнёром в рамках данного проекта выступит «Базальт СПО» — разработчик ОС «Альт». «Коммерсантъ» добавляет, что выпускать оборудование на чипах Loongson также намерена компания «Промобит» — российский разработчик и производитель серверов и СХД.

Чипы Loongson используют архитектуру LoongArch, которая считается альтернативой x86. Флагманский серверный процессор Loongson 3D5000, дебютировавший весной нынешнего года, насчитывает 32 ядра с частотой 2,0 ГГц, имеет 64 Мбайт кеш-памяти, восемь каналов DDR4-3200 ECC и пять линий интерфейса HT 3.0.

Как сообщил гендиректор «Норси-Транс» в ходе форума «Микроэлектроника», компания закупила приблизительно 100 процессоров Loongson, на которых будет выпущена тестовая партия устройств. Речь идёт об изделиях Loongson упомянутой 5000-й серии. Компьютеры и серверы на этой аппаратной платформе планируется поставлять государственным и корпоративным заказчикам. Оборудование будет включено в реестр российской электроники Минпромторга.

 Источник изображения: Loongson

Источник изображения: Loongson

Отмечается, что в конце 2022 года правительство Китая запретило поставки изделий с архитектурой LoongArch из-за «стратегической важности технологии». Но теперь отгрузки этих процессоров в Россию возобновились, что связано с внесением китайских организаций в санкционные списки США: ранее экспортные ограничения были вызваны как раз нежеланием попасть под санкции.

Постоянный URL: http://servernews.ru/1094178
09.10.2023 [12:03], Сергей Карасёв

Количество серверов с мошенническими сайтами выросло во всём мире на 65 % за год

Общее количество серверов, на которых размещаются мошеннические сайты, в том числе для фишинга, в мировом масштабе за год увеличилось на 65 %. По состоянию на начало октября 2023-го их число достигло 93,2 тыс. Такие данные, как сообщает газета «Коммерсантъ», приводит НИИ «Интеграл» — научно-исследовательский институт Минцифры России.

Речь идёт о серверах, на которых располагаются ресурсы, маскирующиеся в мошеннических целях под банки, лотереи, крупные компании и т. д. По оценкам «Интеграла», такие серверы располагаются в 76 странах, тогда как годом ранее их было 82.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

Лидером по количеству вредоносных ресурсов, размещённых на серверах в стране, является Канада: в 2023 году их число подскочило на 56 % — до 24,7 тыс. На втором месте в данном антирейтинге находятся Нидерланды, где количество вредоносных серверов взлетело за год на 160 %, достигнув 22,5 тыс. Замыкают тройку США с 15,4 тыс. фишинговых ресурсов и ростом на 80 % в годовом исчислении. Россия находится на четвёртом месте: 9,5 тыс. серверов с мошенническими ресурсами и годовой рост на уровне 14 %. Далее идёт Великобритании — 4,3 тыс. сайтов и увеличение на 7 % год к году.

В доменной зоне .com в 2023 году расположены 23,5 тыс. вредоносных ресурсов против 10,8 тыс. в 2022-м. Далее следует зона .ru, где число фишинговых сайтов за год поднялось с 9,0 тыс. до 17,1 тыс. В зоне .top расположены 12,7 тыс. вредоносных серверов против 4,9 тыс. годом ранее.

В координационном центре доменов .ru/.рф сообщили, что с января по сентябрь 2023 года поступили 36,6 тыс. жалоб об использовании доменных имен в этих зонах для «поддержания ресурсов с вредоносной активностью», что превысило показатель 2022 года более чем на 150 %. По итогам рассмотрения обращений прекращено делегирование 35,7 тыс. доменов.

Постоянный URL: http://servernews.ru/1094176
08.10.2023 [17:08], Владимир Мироненко

OpenAI и Microsoft заняты созданием собственных ИИ-чипов, чтобы уменьшить зависимость от NVIDIA

Компания OpenAI, создавшая чат-бот на базе искусственного интеллекта ChatGPT, изучает возможность выпуска собственных ИИ-чипов, сообщает Reuters. По словам источников агентства, изучение этого вопроса продвинулось настолько далеко, что OpenAI даже провела оценку возможности покупки одного из производителей чипов, имя которого выяснить не удалось. На фоне бума ИИ на рынке наблюдается нехватка специализированных ускорителей, в первую очередь NVIDIA.

Как утверждают источники, в прошлом году OpenAI рассматривала ряд вариантов решения этой проблемы, включая разработку собственного ИИ-чипа, более тесное сотрудничество с другими производителями ИИ-чипов, в том числе, NVIDIA, а также расширение круга поставщиков ускорителей. Впрочем, даже если OpenAI приобретёт производителя чипов, на создание ИИ-ускорителя уйдёт несколько лет, в течение которых она всё равно будет зависеть от сторонних поставщиков, таких как NVIDIA и AMD.

 Фото: Laura Ockel / Unsplash

Фото: Laura Ockel / Unsplash

Гендиректор Open AI Сэм Альтман (Sam Altman), назвавший приобретение большего количества ИИ-чипов главным приоритетом, публично жаловался на нехватку ускорителей вычислений на рынке, порядка 80 % которого контролирует NVIDIA. Помимо нехватки чипов Альтман назвал ещё одну проблему, имеющуюся у компании — высокие затраты на эксплуатацию аппаратного обеспечения, необходимого для реализации проектов и продуктов компании. Microsoft, которой принадлежит 49 % OpenAI, повторяет те же тезисы и ищет более экономичные альтернативы GPT-4.

С 2020 года OpenAI использует для разработки ИИ-решений мощный суперкомпьютер, построенный Microsoft на базе 10 тыс. ускорителей NVIDIA. Работа ChatGPT обходится компании в немалую сумму. Согласно данным аналитика Bernstein Стейси Расгон (Stacy Rasgon), затраты на выполнение каждого запроса составляют примерно $0,04. Даже при росте количества запросов до десятых долей от объёма поисковых запросов Google, для запуска чат-бота потребуется потратить $48 млрд на первичную закупку ИИ-чипов, а для дальнейшего поддержания работы придётся тратить на ускорители ещё по $16 млрд ежегодно.

 Фото: Maxence Pira / Unsplash

Фото: Maxence Pira / Unsplash

В случае выпуска собственных чипов OpenAI пополнит небольшую группу крупных IT-игроков вроде Google и Amazon, которые стремятся взять под свой контроль разработку «кремния», лежащего в основе их бизнеса. OpenAI пока не решила, готова ли она тратить сотни миллионов долларов в год на создание чипа без каких либо гарантий на успех. Например, Meta при разработке ASIC столкнулась с проблемами, из-за которых пришлось отказаться от дальнейшей работы над некоторыми ИИ-чипами, а выход первого ИИ-ускорителя MTIA задержался на два года. Из-за этого, в частности, Meta была вынуждена приостановить строительство ряда своих дата-центров, чтобы адаптировать их для размещения ускорителей NVIDIA.

По данным The Information, Microsoft тоже разрабатывает собственный ИИ-чип, а OpenAI тестирует его. Впервые об ИИ-ускорителях Athena, которые компания якобы разрабатывала с 2019 года, стало известно в апреле этого года. Они должны помочь Microsoft снизить зависимость от продукции NVIDIA, дефицит которых компания признала угрозой бизнесу. Ранее Microsoft, по слухам, подписала соглашения с CoreWeave и Lambda Labs, а также обсуждала с Oracle совместное использования ускорителей NVIDIA. Причина кроется в политике NVIDIA, которая, как считается, гораздо охотнее продаёт «железо» малым провайдерам, которые не пытаются создавать собственные ИИ-чипы, т.е. не опасны для бизнеса «зелёных».

Постоянный URL: http://servernews.ru/1094141
07.10.2023 [23:21], Владимир Мироненко

Docker представил GenAI Stack и Docker AI для быстрого создания приложений генеративного ИИ и интеллектуальной работы с кодом и окружением

Поставщик инструментов для контейнерной разработки Docker Inc. представил на конференции DockerCon, прошедшей на этой неделе в Лос-Анджелесе, решение Stack GenAI, позволяющее разработчикам всего за несколько кликов развернуть полный стек ПО для создания приложений генеративного ИИ. В Docker заявили, что GenAI Stack устраняет необходимость поиска и объединения технологий, необходимых для поддержки LLM.

Созданный в партнёрстве с Neo4., LangChain и открытым проектом Ollama новый стек представляет собой предварительно сконфигурированную, готовую к написанию кода высокозащищенную платформу, которая обеспечивает доступ к предварительно настроенным большим языковым моделям (LLM), таким как Llama2, GPT-3.5 и GPT-4, векторной и графовой базе данных Neo4J, а также среде разработки LangChain и инструментам Ollama. Вкупе все эти решения упрощают локальное управление LLM и делают процесс разработки ИИ более плавным.

 Источник изображения: Docker

Источник изображения: Docker

Гендиректор Docker Скотт Джонстон (Scott Johnston) сообщил , что разработчики с энтузиазмом воспринимают генеративный ИИ, но не понимают, с чего начать работу с ним из-за разнообразия доступных стеков технологий.«Сегодняшний анонс устраняет эту дилемму, позволяя разработчикам быстро и безопасно приступить к работе, используя инструменты, контент и сервисы Docker, которые они уже знают и любят, вместе с партнёрскими технологиями на переднем крае разработки приложений генеративного ИИ», — сказал он.

В Docker заявили, что GenAI Stack уже доступен на GitHub. Он поставляется с предварительно настроенными LLM Llama 2, Code Llama, Mistral, GPT-3.5 и GPT-4. Ollama предоставит разработчикам поддержку, необходимую для работы с этими моделями и их тюнинга, а Neo4J предоставляет специализированную СУБД. Среда разработки ИИ LangChain помогает организовать базовую LLM, базу данных и создаваемое приложение. Docker же предоставляет вспомогательные инструменты, шаблоны кода, а также всё необходимое для разработки приложений.

Компания также представила решение DockerAI, которое предоставляет разработчикам автоматизированные и контекстно-зависимые рекомендации при создании кода, редактировании конфигураций Dockerfile или Docker Compose, отладке и тестировании приложений. Джонстон отметил, что такие инструменты вроде GitHub Copilot в основном ориентированы на генерацию кода приложений. «Помимо исходного кода приложения состоят из веб-серверов, языковых сред выполнения, баз данных, очередей сообщений и многих других технологий, — пояснил он. — Docker AI помогает разработчикам быстро и безопасно определять и устранять неполадки во всех аспектах приложения».

Постоянный URL: http://servernews.ru/1094114
07.10.2023 [18:04], Сергей Карасёв

Британский разработчик ИИ-чипов Graphcore срочно ищет новые источники финансирования и увольняет персонал

Британская компания Graphcore, специализирующаяся на разработке ИИ-чипов, по сообщению Bloomberg, срочно ищет новое финансирование для продолжения деятельности. Положение Graphcore серьёзно ухудшилось на фоне роста убытков и сокращения выручки.

В 2020 году Graphcore объявила о создании нового класса ускорителей, которые она назвала IPU: Intelligence Processing Unit. Предполагалось, что эти решения составят конкуренцию изделиям NVIDIA, но бизнес с трудом находил поддержку даже в условиях нынешнего бума генеративного ИИ.

 Источник изображения: Graphcore

Источник изображения: Graphcore

В документации, поданной в Регистрационную палату Великобритании, говорится, что в 2022 году убытки Graphcore до уплаты налогов достигли $204,6 млн. Это на 11 % больше по сравнению с потерями за 2021-й. При этом выручка в годовом исчислении рухнула на 46 % — до $2,7 млн. На фоне ухудшения финансового положения Graphcore, основанная в 2016 году, уже уволила часть сотрудников: численность персонала сократилась на 21 % — до 494 человек. Кроме того, были свёрнуты операции в Норвегии, Японии и Южной Корее.

Около двух лет назад Graphcore привлекла на развитие $222 млн при оценке в $2,8 млрд. Компания являлась одним из самых многообещающих стартапов Великобритании, но сейчас она отчаянно нуждается в деньгах. Graphcore заявляет, что сталкивается с «существенной неопределенностью» относительно того, сможет ли продолжать свою деятельность, если не получит дополнительные средства к маю 2024 года. Компания ведёт переговоры с потенциальными инвесторами, но соглашение пока не достигнуто.

Постоянный URL: http://servernews.ru/1094151
07.10.2023 [16:28], Сергей Карасёв

Dell: серверы станут основным драйвером роста компании в эпоху ИИ

Dell Technologies на мероприятии для инвесторов сообщила о том, что её приоритетным направлением развития бизнеса является продажа оборудования для дата-центров. Компания ожидает, что серверы, а не ПК, станут основным драйвером роста в обозримом будущем, что объясняется бумом ИИ-технологий.

Dell прогнозирует, что рынок ПК выйдет из кризиса, а продажи в данном сегменте будут увеличиваться приблизительно на 2,5 % в год в течение нескольких следующих лет. Вместе с тем в серверном сегменте ожидается рост выручки на 7 % в год — это практически в два раза превышает прогноз, сделанный в 2021-м.

 Источник изображения: Dell

Источник изображения: Dell

Как отметил главный операционный директор Dell Джефф Кларк (Jeff Clarke), стремительное развитие ИИ-рынка приведёт к увеличению общих расходов на технологии. Наряду с серверами, оснащёнными ИИ-ускорителями, растёт потребность в хранилищах данных большой вместимости. Ещё в августе Dell заявляла, что у неё имеются заказы на поставку серверного оборудования на общую сумму около $2 млрд. Однако компания, как и другие участники рынка, сталкивается с нехваткой определённых компонентов. По словам Кларка, спрос опережает предложение.

Dell не отказывается от продажи ПК — это по-прежнему бизнес с оборотом примерно $58 млрд в год, приносящий более половины выручки компании. Но потенциал роста в данном сегменте не столь высок, как на серверном рынке. В компании также сообщили, что скорректированная прибыль на акцию, согласно прогнозам, будет увеличиваться как минимум на 8 % в год, а более 80 % свободного денежного потока планируется использовать для выкупа акций или выплаты дивидендов.

Постоянный URL: http://servernews.ru/1094153
07.10.2023 [02:49], Руслан Авдеев

Росгидромет получит 1,6 млрд руб. на поддержку работоспособности суперкомпьютера и развитие отечественной системы метеопрогнозов для авиации

Как сообщает РБК, в 2024–2026 гг. Росгидрометцентр получит 1,6 млрд руб. на поддержку работы суперкомпьютера и работающую на его основе систему зональных прогнозов для отечественной авиации, которая заменит зарубежную систему SADIS зональных прогнозов. В конце февраля 2023 года Россию отключили от этой системы, но через несколько дней заработала отечественная альтернатива.

SADIS (Secure Aviation Data Information Service) работает под эгидой Международной организации гражданской авиации (ICAO), а её оператором является Великобритания. Система предоставляет метеопрогнозы по целому ряду параметров и применяется в 116 странах для международной аэронавигации. Российские авиаперевозчики и представители власти заявляют, что отключение не вызвало проблем для отрасли. Российские авиакомпании и ранее не пользовались SADIS в чистом виде, получая информацию и от структур Росгидромета, но SADIS была экономически выгоднее, поскольку лучше учитывала расход топлива и полётное время.

 Источник изображения: Amy Woodward/unsplash.com

Источник изображения: Amy Woodward/unsplash.com

На альтернативу SADIS Росгидромету будут выделять по 481 млн руб. в год, а на суперкомпьютер — по 50,7 млн руб. ежегодно. Дополнительные средства пойдут на увеличение штата специалистов для развития лаборатории зональных прогнозов Росгидрометцентра. Кроме того, речь идёт об окончании в 2023 году уже оплаченной по контракту гарантийной и технической поддержки. Теперь средства будут тратиться на постгарантийную поддержку суперкомпьютера Cray/T-Platforms на базе платформы XC40-LC. Машина, введённая в эксплуатацию в 2018 году, включает 976 узлов, имеющих по два процессора Intel Xeon E5-2697v4.

Постоянный URL: http://servernews.ru/1094124
07.10.2023 [00:44], Сергей Карасёв

Стартап Lemurian Labs, созданный выходцами из NVIDIA, AMD и Intel, намерен совершить революцию в мире ИИ

Стартап Lemurian Labs, специализирующийся, как он сам говорит, на решении вычислительных проблем, связанных с использованием ИИ, по сообщению HPCwire, провёл начальный раунд финансирования, в ходе которого привлечено $9 млн. Средства предоставили Oval Park Capital, Good Growth Capital, Raptor Group, Alumni Ventures и др. В команду Lemurian Labs входят бывшие специалисты Google, Microsoft, NVIDIA, AMD и Intel. Компания ставит перед собой задачу создать принципиально новый подход к обработке алгоритмов ИИ с целью снижения энергопотребления и затрат.

 Источник изображений: Lemurian Labs

Источник изображений: Lemurian Labs

Стартап отмечает, что платформы ИИ развиваются с беспрецедентной скоростью. Это приводит к стремительному увеличению масштаба моделей, что порождает необходимость в огромных вычислительных ресурсах. В результате, аппаратные платформы потребляют непомерное количество энергии, что делает разработку ИИ чрезвычайно дорогостоящей и экологически неустойчивой. Например, развёртывание GPT3 в масштабах поисковика Google потребует 400 МВт и более $100 млрд. Кроме того, создаётся дефицит ускорителей. Впрочем, компания и сама намерена создать программно-аппаратный комплекс.

Lemurian Labs предлагает решить проблему путём создания специализированной платформы, использующей новый формат данных PAL8 (Parallel Adaptive Logarithm, или параллельный адаптивный логарифм). Она, по словам создателей, позволит ускорить рабочие нагрузки ИИ, увеличив пропускную способность по сравнению с GPU-решениями почти в 20 раз при ⅒ от общей стоимости. Вкупе с сопутствующим ПО станет возможным значительное увеличение производительности без роста потребляемой мощности, что позволит с высокой эффективностью разрабатывать ресурсоёмкие ИИ-приложения.

Компания создаёт специализированный компилятор, который динамически распределяет задачи для максимального использования ресурсов оборудования. Это делает написание кода для кластера из 1 тыс. узлов таким же простым, как и для одного. Вместе с тем новый тип данных не только даёт лучшее представление чисел по сравнению с FP-форматами, но и обеспечивает десятикратное увеличение эффективности, позволяя обойти существующие ограничения, связанные с параллельными вычислениями. Плюс к этому задействована многоуровневая архитектура памяти, оптимизирующая потоки данных с целью увеличения пропускной способности и эффективности без ущерба для универсальности.

Постоянный URL: http://servernews.ru/1094095
06.10.2023 [14:45], Сергей Карасёв

Российский разработчик НПЦ «Элвис» судится с Synopsys из-за отказа от техподдержки

Научно-производственный центр «Электронные вычислительно-информационные системы» (НПЦ «ЭЛВИС»), российский разработчик микросхем, по сообщению TAdviser, судится с российским представительством Synopsys. Американский разработчик САПР для электроники обвиняется в отказе от предоставления предоплаченных услуг техподдержки.

Согласно материалам дела, в декабре 2021 года НПЦ «Элвис» и Synopsys заключили соглашение о лицензировании и сопровождении ПО на сумму около 419,3 млн руб. При этом стоимость техподдержки составила приблизительно 108,5 млн руб. Однако с марта 2022-го в условиях сложившейся геополитической обстановки Synopsys прекратила обслуживание НПЦ «Элвис»: российский разработчик даже не мог зайти в личный кабинет на сайте solvnet.synopsys.com.

В мае 2022-го Synopsys уведомила НПЦ «Элвис» по электронной почте, о том, что планирует прекращение свой деятельности в течение 2–3 месяцев. На требование НПЦ «Элвис» обосновать причину неоказания услуг компания Synopsys не ответила, после чего российская сторона потребовала выплатить сумму неосновательного обогащения с 1 апреля по декабрь 2022 включительно, а также проценты за пользование чужими денежными средствами.

 Источник изображения: НПЦ «ЭЛВИС»

Источник изображения: НПЦ «ЭЛВИС»

Однако суд посчитал, что размер стоимости, подлежащей возврату, должен быть пропорционален периоду до прекращения обязательственных отношений, то есть, с 10 июля 2022 года (уведомление об отказе от договора в июне плюс 30 дней). Таким образом, компенсация составила 51,2 млн руб., что меньше суммы, затребованной НПЦ «Элвис». В сентябре 2023 года кассационный суд, как и две предыдущих инстанции, отказался удовлетворить требования российской компании в полном объёме.

Постоянный URL: http://servernews.ru/1094094
06.10.2023 [01:01], Владимир Мироненко

Dell расширила набор комплексных решений и сервисов для «локализации» генеративного ИИ

Dell объявила о расширении портфеля решений Dell Generative AI Solutions с целью поддержки компаний в трансформации методов работы с генеративным искусственным интеллектом (ИИ). Первоначально в разработанном совместно с NVIDIA решении Dell Validated Design for Generative AI основное внимание уделялось обучению ИИ, но теперь продукт также поддерживает тюнинг моделей и инференс. Это, в частности, означает, что у клиентов есть возможность развёртывать модели в собственных ЦОД, передаёт StorageReview.

Dell Validated Design for Generative AI with NVIDIA for Model Customization предлагает предварительно обученные модели, которые извлекают знания из данных компания без необходимости создания моделей с нуля и обеспечивают безопасность информации. Благодаря масштабируемой схеме тюнинга у организаций теперь есть множество способов адаптировать модели генеративного ИИ для выполнения конкретных задач с использованием своих собственных данных.

 Изображения: Dell (via StorageReview)

Изображения: Dell (via StorageReview)

Инфраструктура базируется на GPU-серверах Dell PowerEdge XE9680 и PowerEdge XE8640 с ускорителями NVIDIA, стеком NVIDIA AI Enterprise и фирменным ПО Dell. Компания позиционирует это как идеальное решение для компаний, которые хотят создавать генеративные ИИ-модели, сохраняя при этом безопасность своих данных на собственных серверах. Для хранения данных предлагаются различные конфигурации Dell PowerScale и Dell ObjectScale. Доступ к этой инфраструктуре также возможен по подписке в рамках Dell APEX.

Dell также расширила портфолио профессиональных сервисов. Так, появились сервисы по подготовке данных (Data preparation Services), разработанные специально для предоставления клиентам тщательно подготовленных, очищенных и корректно отформатированных наборов данных. А с помощью сервисов по внедрению (Dell Implementation Services) для компании в короткие сроки создадут полностью готовую платформу генеративного ИИ, оптимизированную для инференса и подстройки моделей.

Dell также предлагает новые образовательные сервисы (Education Services) для клиентов, которые хотят обучить своих сотрудников современным ИИ-технологиям. Наконец, было объявлено о партнёрстве Dell и Starburst, в рамках которого Dell интегрирует платформы PowerEdge и СХД с аналитическим ПО Starburst, чтобы помочь клиентам создать централизованное хранилище данных и легче извлекать необходимую информацию из своих данных.

Энди Турай (Andy Thurai), вице-президент и главный аналитик Constellation Research, сообщил в интервью SiliconANGLE, что наиболее мощные LLM, такие как GPT-4, обучаются в специально созданных облачных окружениях из-за их огромных размеров и требований к ресурсам. Вместе с тем некоторые компания ищут способы обучения своих собственных, гораздо меньших по размеру LLM в локальных средах. Турай отметил, что Dell потребуется время, чтобы добиться каких-либо успехов в «локализации» генеративного ИИ, поскольку настройка инфраструктуры, перемещение подгтовка данных — занятие не для слабонервных.

Как сообщается, решение Dell Validated Design for Generative AI with NVIDIA for Model Customization будет доступно глобально позже в октябре. Профессиональные сервисы появятся тогда же, но только в некоторых странах. А решение Dell для озера данных на базе Starburst станет глобально доступно в I половине 2024 года. Фактически новые решения Dell являются развитием совместной с NVIDIA инициативы Project Helix.

Постоянный URL: http://servernews.ru/1094081

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus