Материалы по тегу:

30.11.2023 [13:48], Сергей Карасёв

Kioxia продолжает нести убытки и теряет выручку

Компания Kioxia отчиталась о работе во II четверти 2023 финансового года, которая была завершена 30 сентября. На фоне сложившейся рыночной обстановки и макроэкономических сложностей японский производитель чипов флеш-памяти продолжает нести убытки, но по сравнению с I кварталом потери сократились.

За отчётный трёхмесячный период Kioxia получила выручку в размере ¥241,4 млрд (приблизительно $1,64 млрд). Это на 9,7 % меньше результата за I четверть 2023 финансового года, когда показатель равнялся ¥251,1 млрд ($1,71 млрд). Операционные убытки в квартальном исчислении сократились со ¥130,8 млрд ($889 млн) до ¥100,8 млрд ($685 млн). Чистые убытки зафиксированы на отметке ¥86,0 млрд ($585 млн) против ¥103,1 млрд ($701 млн) в I квартале текущего финансового года.

 Источник изображения: Kioxia

Источник изображения: Kioxia

Отмечается, что на финансовые показатели Kioxia негативное влияние оказал слабый спрос на чипы флеш-памяти для смартфонов, а также накопителей для компьютеров и серверов. Компания, как и другие игроки рынка, столкнулась с сокращением продаж после пандемии COVID-19, что объясняется избыточными складскими запасами. В результате, отпускные цены на флеш-чипы достигли минимального уровня. Kioxia полагает, что поставки начнут расти в следующем году на фоне восстановления отрасли.

Компании Kioxia не удалось договориться о слиянии с Western Digital. Противником данной сделки выступает SK hynix, утверждающая, что объединённая структура будет угрожать её бизнесу.

Постоянный URL: http://servernews.ru/1096725
30.11.2023 [03:10], Игорь Осколков

ИИ в один клик: llamafile позволяет запустить большую языковую модель сразу в шести ОС и на двух архитектурах

Mozilla представила первый релиз инструмента llamafile, позволяющего упаковать веса большой языковой модели (LLM) в исполняемый файл, который без установки можно запустить практически на любой современной платформе, причём ещё и с поддержкой GPU-ускорения в большинстве случаев. Это упрощает дистрибуцию и запуск моделей на ПК и серверах.

llamafile распространяется под лицензией Apache 2.0 и использует открытые инструменты llama.cpp и Cosmopolitan Libc. Утилита принимает GGUF-файл с весами модели, упаковывает его и отдаёт унифицированный бинарный файл, который запускается в macOS, Windows, Linux, FreeBSD, OpenBSD и NetBSD. Готовый файл предоставляет либо интерфейс командной строки, либо запускает веб-сервер с интерфейсом чат-бота.

 Источник: GitHub / Mozilla Ocho

Источник: GitHub / Mozilla Ocho

Поддерживаются платформы x86-64 и ARM64, причём в первом случае автоматически определяется тип CPU и по возможности используются наиболее современные векторные инструкции. llamafile может использовать ускорители NVIDIA, а в случае платформы Apple задействовать Metal. Разработчики успешно протестировали инструмент в Linux (в облаке Google Cloud) и Windows с картой NVIDIA, в macOS и на NVIDIA Jetson.

Впрочем, некоторые нюансы всё же есть. Так, в Windows размер исполняемого файла не может превышать 4 Гбайт, поэтому большие модели вынужденно хранятся в отдельном файле. В macOS на платформе Apple Silicon перед первым запуском всё же придётся установить Xcode, а в Linux, возможно, понадобится обновить некоторые компоненты. Подробности и примеры готовых моделей можно найти в репозитории проекта.

Постоянный URL: http://servernews.ru/1096720
29.11.2023 [23:40], Руслан Авдеев

NVIDIA NeMo Retriever позволит компаниям дополнять ИИ-модели собственными данными

NVIDIA представила сервис NeMo Retriever, позволяет компаниям дополнять данные для чат-ботов, ИИ-помощников и похожих инструментов специализированными сведениями — для получения более точных ответов на запросы. Сервис стал частью облачного семейства инструментов NVIDIA NeMo, позволяющих создавать, настраивать и внедрять модели генеративного ИИ.

RAG (Retrieval Augmented Generation), метод улучшения производительности больших языковых моделей (LLM), позволяет повысить точность и безопасность ИИ-инструментов благодаря заполнению пробелов в «знаниях» языковых моделей с помощью сведений из внешних источников. Обучение каждой модели — чрезвычайно ресурсоёмкий процесс — обычно осуществляется довольно редко, а то и вовсе единожды. При этом до следующего обновления модель не имеет доступа к полной и актуальной информации, что может привести к неточностям, ошибкам и т.н. галлюцинациям.

 Источник изображения: Faisal Mehmood / Pixabay

Источник изображения: Faisal Mehmood / Pixabay

NeMo Retriever позволяет быстро дополнить LLM свежими сведениями в виде баз данных, HTML-страниц, PDF-файлов, изображений, видео и т.п. Другими словами, базовая модель с добавлением специализированных материалов станет заметно эрудированнее и «сообразительнее». При этом данные могут храниться где угодно — как в облаках, так и на собственных серверах компаний. Технология чрезвычайно полезна, поскольку обеспечивает сотрудникам компании работу с полезными данными, закрытыми для широкой публики, при этом пользуясь всеми преимуществами ИИ.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В отличие от открытых RAG-инструментов, NVIDIA, по данным самой компании, предлагает готовое к коммерческому использованию решение для доступных на рынке ИИ-моделей, уже оптимизированных для RAG и имеющих поддержку, а также регулярно получающих обновления безопасности. Другими словами, корпоративные клиенты могут брать готовые ИИ-модели и дополнять их собственными данными без отдельной ресурсоёмкой тренировки.

NeMo Retriever позволит добавить соответствующие возможности универсальной облачной платформе NVIDIA AI Enterprise, предназначенной для оптимизации разработки ИИ-приложений. Регистрация разработчиков для раннего доступа к NeMo Retriever уже началась. Cadence Design Systems, Dropbox, SAP SE и ServiceNow уже работают с NVIDIA над внедрением RAG в свои внутренние ИИ-инструменты.

Постоянный URL: http://servernews.ru/1096680
29.11.2023 [22:43], Владимир Мироненко

ИИ-ассистент Amazon Q упростит работу IT-специалистов, разработчиков и корпоративных клиентов AWS

Компания Amazon Web Services представила интеллектуального ассистента Amazon Q на базе генеративного ИИ, предназначенного для помощи корпоративным клиентам. Поначалу Amazon Q будет использоваться для нужд разработчиков и поддержки IT-команд. Amazon Q уже доступен в виде превью, причем многие функции бесплатны. В дальнейшем AWS будет брать по $20/мес. за каждого пользователя, а версия с дополнительными функциями для ИТ-специалистов будет стоить $25/мес.

«Amazon Q может помочь вам получать быстрые и актуальные ответы на насущные вопросы, решать проблемы, генерировать контент и предпринимать действия, используя данные и опыт, найденные в информационных репозиториях, коде и корпоративных системах вашей компании», — сообщил гендиректор Amazon. Глава AWS считает, что Amazon Q реформирует множество видов деятельности. ИИ-помощник разработан с учётом 17-летнего опыта работы самой AWS и поначалу будет доступен именно внутри экосистемы AWS.

Хотя Amazon Q в первую очередь нацелен на разработчиков и ИТ-специалистов, компания планирует в конечном итоге распространить его возможности на весь корпоративный сегмент. Подобно другим ИИ-помощникам он сможет подключаться к различным источникам данных, отвечать на вопросы и составлять резюме, а также предоставлять экспертные сведения или помощь на основе внутренней информации компании. Это потенциально может сделать его конкурентом ChatGPT Enterprise от OpenAI, Copilot for 365 от Microsoft и Duet AI for Workspace от Google.

 Источник изображения: AWS

Источник изображения: AWS

Специалисты смогут получить доступ Amazon Q из консоли AWS. Q расскажет, как использовать сервисы, какие API доступны, к каким сервисам можно подключиться и как они взаимодействуют между собой. Пользователь сможет создавать запросы на естественном языке, а Q подготовит экспертный ответ со ссылками и цитатами. Так, в EC2-консоли Amazon Q даст совет, какой тип инстанса лучше всего подходит для размещения определённого типа приложений в зависимости в зависимости от потребностей клиента. А если возникла проблема с сетью, у Q можно напрямую спросить: «Почему я не могу подключиться по SSH к своему инстансу?». В этом случае помощник подключит его к сетевому анализатору, чтобы устранить неполадки с соединением.

AWS интегрировала ИИ-ассистента в поддерживаемые IDE вместе с ИИ-инструментом Amazon CodeWhisperer, так что с Q можно пообщаться непосредственно во время разработки. Например, Amazon Q может разобрать и описать исходный код незнакомого проекта или же в диалоговом режиме в Amazon CodeCatalyst поможет создать новый код, опираясь на описание необходимой функциональности и учитывая лучшие практики, а также имеющуюся кодовую базу и бизнес-сведения. Наконец, функция Amazon Q Transformation, доступная в виде превью для IntelliJ IDEA и Visual Studio Code, позволит автоматизировать обновление кода приложений с Java 8 и 11 до версии 17. А вскоре Q научится преобразовывать .NET-приложения для Windows в кросс-платформенные.

Постоянный URL: http://servernews.ru/1096691
29.11.2023 [17:07], Андрей Крупин

Система PT Industrial Security Incident Manager дополнилась средствами мониторинга энергообъектов

Компания Positive Technologies сообщила о выпуске новой версии комплексного решения PT Industrial Security Incident Manager 4.4 (PT ISIM 4.4), предназначенного для защиты автоматизированных систем управления технологическими процессами (АСУ ТП).

Представленный российским разработчиком продукт осуществляет сбор и анализ сетевого трафика в инфраструктуре предприятия. PT ISIM обеспечивает поиск следов нарушений информационной безопасности в сетях АСУ ТП, помогает на ранней стадии выявлять кибератаки, активность вредоносного ПО, неавторизованные действия персонала (в том числе злоумышленные) и обеспечивает соответствие требованиям законодательства (187-ФЗ, приказы ФСТЭК № 31, 239, ГосСОПКА).

PT Industrial Security Incident Manager 4.4 включает в себя расширенный контроль сетевых коммуникаций на современных цифровых энергообъектах по стандарту МЭК-61850. В продукте появился новый microView Sensor, который устанавливается на компактные промышленные ПК и предназначен для использования на небольших объектах автоматизации: подстанциях 6–10 кВ, тепловых пунктах, в цехах и инженерных системах ЦОД и зданий.

Решение может выявлять аномальные сетевые соединения, отказы и ошибки коммуникации по протоколам MMS и GOOSE, свидетельствующие о неправильной эксплуатации, некорректной настройке оборудования или попытках компрометации устройств. Также упростился пользовательский интерфейс PT ISIM 4.4. Обновление предыдущих версий теперь полностью централизованно для всех поддерживаемых операционных систем — ручное обновление дополнительных модулей не требуется.

Постоянный URL: http://servernews.ru/1096695
29.11.2023 [16:20], Андрей Крупин

Linux-версия DLP-системы «СёрчИнформ КИБ» получила расширенные функциональные возможности

Компания «СёрчИнформ» объявила о выпуске обновлённой Linux-версии программного комплекса «Контур информационной безопасности» (КИБ).

Платформа «СёрчИнформ КИБ» относится к классу систем Data Loss Prevention (DLP) и предназначена для предотвращения утечек конфиденциальной информации в корпоративных сетях, управления рисками и всесторонней защиты бизнеса от внутренних угроз. Решение состоит из модулей, каждый из которых контролирует свой канал передачи информации. Система показывает, какой путь проходят данные, и делает прозрачными все коммуникации.

Обновлённая Linux-версия DLP-системы получила расширенные средства контроля веб-камеры, монитора и пользовательской активности. Так, с помощью модуля CameraController ИБ-службы могут создавать снимки пользователя за ПК и просматривать происходящее в зоне видимости веб-камеры в режиме реального времени. MonitorController записывает видео с экранов рабочих станций и делает контрольные снимки, если настроена съёмка по расписанию. Наконец, модуль ProgramController анализирует пользовательскую активность в веб-браузерах и оценивает, насколько продуктивно сотрудники проводят время в интернете.

Полученные сведения складываются в отчёты, по которым можно судить о дисциплине и эффективности работы сотрудника. Кроме того, ИИ-инструменты позволяют выявлять нетипичные угрозы. Например, аналитический движок сравнивает снимки CameraController с образцовым фото пользователя и с помощью распознавания лиц выявляет, что за ПК чужак или никого нет (возможно несанкционированное удалённое подключение), и сигнализирует службе ИБ. Также распознавание работает для телефонов и позволяет выявлять попытки «слить» данные, сфотографировав экран на смартфон.

«Обновление уравняло возможности Linux-версии «СёрчИнформ КИБ» с версией для Windows — мы наконец адаптировали все модули. Это актуальные новости для госсектора и субъектов критической информационной инфраструктуры, которые в рамках импортозамещения перешли на российские операционные системы на базе Linux», — отмечают разработчики.

Постоянный URL: http://servernews.ru/1096692
29.11.2023 [15:59], Руслан Авдеев

Дата-центры Google в Неваде запитали от уникальной геотермальной электростанции Fervo Energy

Google пожинает первые плоды уникального геотермального проекта, реализуемого совместно с компанией Fervo Energy в Неваде. Как сообщается в блоге Google, техногигант стал на шаг ближе к декарбонизации своего бизнеса.

К 2030 году Google планирует добиться нулевого углеродного выброса при энергоснабжении ЦОД и офисных кампусов компании. Два года назад Google заключила со стартапом Fervo соглашение о совместной разработке проекта геотермальной электростанции, предусматривавшего поставку 5 МВт. ИИ-решения Google должна были оптимизировать работу станции.

Заработавшая электростанция поставляет около 3,5 МВт в местные энергосети, в том числе обслуживающие и ЦОД компании. Google и Fervo подписывают соглашения о покупке энергии (PPA) — полученное электричество не обязательно поступает именно в ЦОД Google, но это помогает изменить общий баланс энергии в сетях в пользу безуглеродных источников.

 Источник изображения: Google

Источник изображения: Google

Как заявляют в Министерстве энергетики США, к 2050 году геотермальные источники смогут выдавать до 120 ГВт или 16 % от общих потребностей страны в электричестве. При этом во многих регионах это оптимальное решение для получения «чистой» энергии, поскольку доступ к другим возобновляемым источникам ограничен — такое, например, характерно для Азиатско-Тихоокеанского региона. При этом геотермальную энергию используют относительно редко, а коммерческое применение соответствующим технологиям можно найти только в местностях где до подземного тепла весьма легко добраться.

В отличие от обычных геотермальных электростанций, Fervo применяет технологии горизонтального бурения скважин, ранее характерные только для нефтегазовой промышленности. Это позволяет добраться до источников тепла, прежде недоступных. Fervo пробурила две скважины и разместила оптоволоконные кабели, позволяющие получать данные о температуре и других характеристиках системы в режиме реального времени. Благодаря новым технологиям геотермальная электростанция занимает меньше места, чем другие проекты такого типа.

Также Google анонсировала сотрудничество с некоммерческой организацией Project InnerSpace, которая намерена ускорить внедрение электростанций такого типа. Участвуют в таких природоохранных инициативах и другие техногиганты. Например, Microsoft ещё в мае заключила соглашение о закупке 51 МВт геотермальной энергии в Новой Зеландии. Есть и примеры прямого использования энергии из таких источников дата-центрами. В Кении начато строительство ЦОД Ecocloud Data Centre на геотермальном поле, электричество будет получать как сам объект, так и другие предприятия.

Постоянный URL: http://servernews.ru/1096666
29.11.2023 [15:15], Сергей Карасёв

Объём мирового рынка микросерверов вырастет в четыре раза к 2032 году, превысив $120 млрд

Компания Allied Market Research опубликовала прогноз по глобальному рынку микросерверов до 2032 года. Аналитики полагают, что данный сегмент ждёт устойчивое развитие, что объясняется растущей потребностью в распределённых вычислениях, увеличением спроса на edge-решения и расширением Интернета вещей (IoT).

Отмечается, что по итогам 2022 года глобальные затраты на микросерверы составили $28,8 млрд. В дальнейшем ожидается значение CAGR (среднегодовой темп роста в сложных процентах) на уровне 15,8 %. Если этот прогноз оправдается, к 2032-му расходы поднимутся до $122,4 млрд, то есть, вырастут более чем в четыре раза по отношению к 2022-му.

В прошлом году, по оценкам, аппаратные компоненты обеспечили почти три пятых в общем объёме выручки на мировом рынке микросерверов. Вместе с тем до 2032 года наибольшие темпы роста будут наблюдаться в сегменте ПО с величиной CAGR около 17,8 %. Это связано с переходом к контейнеризации и проектированию микросервисов.

 Источник изображения: HPE

Источник изображения: HPE

В плане аппаратных платформ на традиционные решения, к которым относятся изделия Intel, в 2022 году пришлось более половины выручки на рынке микросерверов. В дальнейшем ожидается быстрый рост спроса на альтернативные системы (в том числе с архитектурой Arm) с показателем CAGR на уровне 19,5 % до 2032 года.

Крупные предприятия являются основными покупателями микросерверов: в 2022-м они обеспечили более двух третей от общей выручки. Вместе с тем, согласно прогнозам, в сегменте малых предприятий и среднего бизнеса будет наблюдаться самый высокий показатель CAGR — 17,7 % до 2032 года. Связано это с внедрением микросерверов в таких отраслях, как розничная торговля и гостиничный бизнес.

Сегмент облачных вычислений в 2022 году обеспечил более двух пятых выручки на рассматриваемом рынке. Самым крупным регионом сбыта является Северная Америка. Ожидается, что в Азиатско-Тихоокеанском регионе до 2032-го будет наблюдаться самое высокое значение CAGR — 19,3 %.

Постоянный URL: http://servernews.ru/1096662
29.11.2023 [13:09], Сергей Карасёв

Поставки процессоров AMD и Intel в Россию резко сократились

В январе–октябре 2023 года поставки процессоров AMD и Intel на российский рынок, по сообщению газеты «Коммерсантъ», рухнули более чем в два раза (с учётом параллельного импорта). Отчасти это связано с тем, что в сложившейся геополитической обстановке чипы отгружаются в РФ в составе готовых систем — серверов, СХД и пр.

По итогам десяти месяцев 2023-го, согласно данным IT-холдинга Fplus, в Россию поступили около 35 тыс. процессоров AMD, что на 70 % меньше по сравнению с показателем за аналогичный период прошлого года. При этом в денежном выражении поставки упали на 98 % — до 372 млн руб. Отгрузки изделий Intel на российский рынок в январе–октябре 2023 года составили 178 тыс. шт/ на 3,2 млрд руб. Падение по сравнению с прошлогодними значениями зафиксировано на отметке 64 % и 62 % соответственно. При этом Fplus подчёркивает, что «небольшая часть процессоров ввозится в страну под другим кодом, поэтому в поставках не отображается».

 Источник изображения: AMD

Источник изображения: AMD

Участники рынка связывают тенденцию с несколькими факторами, передаёт «Коммерсантъ». Крупные российские производители IT-оборудования, такие как Yadro, «Аквариус» и Fplus, на фоне санкций закупили большое количество компонентов, излишки которых теперь продают другим компаниям. На сокращение поставок также повлияли инфляция и увеличение ставок по кредитам. Кроме того, в апреле из реестра Минпромторга были исключены несколько десятков компаний, которые выпускали оборудование на зарубежных CPU. Вместе с тем некоторые корпоративные пользователи искусственно продлевают жизненный цикл оборудования.

Постоянный URL: http://servernews.ru/1096660
29.11.2023 [13:02], Сергей Карасёв

Для VMware Cloud on AWS стали доступны инстансы M7i bare metal

Компания VMware объявила о том, что для платформы VMware Cloud on AWS реализована поддержка инстансов Amazon EC2 M7i bare-metal (m7i.metal-24xl) на базе кастомных Intel Xeon Sapphire Rapids. Конфигурация включает 96 vCPU и около 414 Гбайт памяти. Решение, как отмечается, поможет клиентам ускорить миграцию в облако и модернизацию корпоративных приложений.

VMware Cloud on AWS позволяет работать с ПО VMware для программно-определяемых центров обработки данных (SDDC) корпоративного класса в облаке AWS, используя оптимизированный доступ к собственным сервисам AWS. Платформа создана на основе VMware Cloud Foundation. Сервис совмещает решения для вычислений, хранения данных и виртуализации сети (VMware vSphere, VMware vSAN и VMware NSX), а также инструменты управления VMware vCenter Server, оптимизированные для работы в выделенной эластичной инфраструктуре AWS. VMware Cloud on AWS предоставляет однопользовательскую среду с поддержкой от 4 до 16 хостов на каждый кластер vSphere.

 Источник изображения: AWS

Источник изображения: AWS

Объединив M7i bare metal с томами Amazon FSx для NetApp ONTAP и VMware Cloud Flex Storage, клиенты могут расширять хранилище по мере необходимости независимо от вычислительных мощностей, чтобы максимизировать использование ресурсов. Для рабочих нагрузок с интенсивным вводом-выводом, требующих высокой производительности и низких задержек, заказчики могут продолжать использовать существующие экземпляры i3en и i4i с гиперконвергентной архитектурой.

В целом, благодаря M7i bare metal пользователи VMware Cloud on AWS смогут ускорить перенос нагрузок в облако, сократить время восстановления после сбоев и атак программ-вымогателей, а также повысить эффективность развёртывания приложений ИИ и машинного обучения при снижении совокупной стоимости владения, сообщает компания.

Постоянный URL: http://servernews.ru/1096658
Система Orphus