Материалы по тегу: ии

11.09.2024 [09:09], Владимир Мироненко

DevOps в России мигрирует на отечественные ОС, платформы и инструменты

Компания «Экспресс 42» опубликовала результаты ежегодного исследования «Состояние DevOps в России», вышедшего при поддержке Deckhouse, Yandex Cloud, HeadHunter, «OTUS онлайн образование», JUG Ru Group, Avito Tech, «Т-Банк». Благодаря рекордному числу участников — более 4 тыс. человек — в исследовании удалось выявить ключевые закономерности и самые актуальные тренды развития DevOps в России.

Исследование подтвердило рост интереса к DevOps, в том числе в новых отраслях. Хотя тройка лидеров сохраняется с 2020 года, доля ИТ уменьшилась с 45,5 до 36,2 %, доля финансового сектора упала на 2,4 % до 12,4 %, у ретейла равна 7,3 %. Суммарная доля отраслей за пределами ИТ-сферы и финтеха выросла с 39,7 % до 51,4 %.

По сравнению с прошлым годом среди респондентов выросла доля работающих на российские компании — с 85,8 % до 89,4 %. Также увеличилось количество независимых специалистов — с 2,5 % до 3,8 %. Растущий интерес к DevOps отражает и рынок труда. По востребованности DevOps-специалисты уступают только разработчикам – 27,6 % против 40,6 % соответственно. Далее в рейтинге следуют системные аналитики (13,5 %). Вместе с тем бюджет на наём растёт, как и разрыв между количеством вакансий и резюме. То есть кадровый голод не утолён, но ключевые позиции, похоже, были закрыты, сделали вывод в «Экспресс 42».

 Источник изображений: devopsrussia.ru

Источник изображений: devopsrussia.ru

В числе самых востребованных навыков специалистов в этой сфере работодатели указывают работу с Linux (в 4 5% вакансий), Docker (37 %) и Kubernetes (35 %). Важны также компетенции DevOps (23 %), владение Ansible и Phyton (по 22 %), CI/СD и Bash (по 20 %), PostgreSQL (19 %), Git (17 %). Вместе с тем снизилась доля пользователей Debian/Ubuntu с 61,8 до 53,8 % и RHEL — с 49 до 33,1 %. Попутно растёт доля пользователей российских ОС Astra Linux — с 18,3 до 22,5 %; Ред ОС — с 9,1 до 11,2 %; других российских ОС — с 1,9 до 5,6%. Исключение составила ОС «Альт», доля которой упала с 6,6 до 6,2 %.

Исследователи отметили, что большинство российских компаний адаптировалось к изменившимся за последние два года условиям работы. И их фокус смещается с нормализации состояния на развитие. Доля респондентов, выбравших вариант «Сохранить финансовую и операционную стабильность», сократилась с 23 до 19,4 %, в то время как доля выбравших варианты «Продолжить планомерное развитие» и «Воспользоваться появившимися новыми возможностями» увеличилась с 44 до 45,7 % и с 32 до 34,9 % соответственно.

В числе первоочередных задач, которые компании ставят перед своими ИТ-департаментами — улучшение качества разрабатываемых продуктов (59,7 % респондентов), повышение скорости реагирования на запросы от бизнеса (43,6 %), создание новых технологий, которые обеспечивают конкурентное преимущество на рынке (42,1 %). Также отмечено увеличение средств, выделяемых на ИТ. 57,2 % опрошенных, которые ознакомлены с распределением, сообщили об увеличении бюджета на ИТ, а у 26,2 % он остался прежним.

Исследователи отметили рост количества пользователей managed-решений и российских дистрибутивов Kubernetes. Аналитики расценивают это как начало тренда на переход на управляемые решения и российские дистрибутивы. Также отмечено, что классическими оркестраторами стали пользоваться меньше: доля Kubernetes снизилась с 58,3 до 54,4 %, OpenShift — с 15,1 % до 14,1 %, Rancher — с 9 % до 5,7 %. При этом доля отдельных оркестраторов выросла, больше всего у Docker Swarm — с 14,7 % до 18,6 %. Доля респондентов, которые не используют оркестраторы, увеличилась с 18,7 до 24 %, что объясняется распространением DevOps на новые отрасли, где работают с обычными виртуальными машинами без надобности в решениях уровня Kubernetes, поскольку достаточно Docker Swarm.

В числе ключевых функций/компонентов платформ контейнеризации респонденты назвали возможность установки в закрытый контур (49,1 %), централизованное управление множеством кластеров (44,3 %), возможность беспростойных обновлений (41 %), графический интерфейс и удобство и максимальную автоматизацию всех процессов (38,3 %). Наиболее важными аспектами они назвали наличие экосистемы сопутствующего ПО, наличие совместимости с другим ПО и возможность влияния на план развития платформы. При выборе той или иной платформы контейнеризации респонденты руководствуются стоимостью (51,5 %), затратами на обслуживание и эксплуатацию (48,9 %), сложностью внедрения (45, 9%).

Основной ценностью использования платформ респонденты считают сокращение вывода решения на рынок (52,4 %), сокращение затрат на поддержку технологических решений (49 %) и на владение инфраструктурой (44,2 %). В исследовании также была зафиксирована тенденция ухудшения ключевых метрик по всем профилям эффективности DevOps: частота релизов ПО, срок поставки, меньшее время восстановления после инцидентов и т.д.

Самым популярным инструментом DevOps являются облачные решения. В числе ключевых преимуществ PaaS большинство респондентов назвали ускорение создания и масштабирование приложений (40 %), возможность использование всех сервисов у одного провайдера (37 %), гарантию соблюдения SLA (27 %). Вместе с тем треть респондентов предпочитает размещать данные на собственной инфраструктуре (33 %), чуть меньше трети пользуется гибридной средой (30 %). В основном компании используют управляемые сервисы для администрирования виртуальных машин и систем резервного копирования (4 %), развёртывания серверов (37 %), реже сервисы применяются для помощи с процессом миграции (14 %).

В рейтинге популярности PaaS и управляемых сервисы лидируют управляемые SQL (45 %) и оркестраторы (38 %). По-прежнему наименьшее распространение имеют облачные ML-сервисы (8 %) и инструменты для синтеза и распознавания речи (7 %). Ключевые навыки для DevOps-специалиста в облаке включают знание специфики работы в контуре облачного провайдера: управления доступами и безопасностью (57 %), работы с API (62 %), работы с CLI (61 %). Также растёт использование ИИ — 44 % респондентов используют ML/AI-инструменты для решения DevOps-задач и 47 % отмечают их важность в повышении эффективности.

Постоянный URL: http://servernews.ru/1110736
11.09.2024 [01:18], Владимир Мироненко

Oracle построит гигаваттный ИИ ЦОД с питанием от малых модульных реакторов

Акции Oracle выросли во вторник более чем на 10 % после публикации отчёта за I квартал 2025 финансового года, завершившегося 31 августа. Выручка компании выросла на 7 % с $12,5 млрд годом ранее до $13,3 млрд при консенсус-прогнозе аналитиков, опрошенных FactSet, в $13,2 млрд. Скорректированная прибыль на акцию (Non-GAAP) составила $1,39 при прогнозе аналитиков $1,33.

Выручка Oracle от облачных сервисов (IaaS и SaaS) выросла год к году на 21 % до $5,6 млрд. Выручка от лицензирования облачных продуктов увеличилась на 7 % до $870 млн, а выручка сегмента Cloud Infrastructure (IaaS) увеличилась на 45 % до $2,2 млрд. «Поскольку облачные сервисы стали крупнейшим бизнесом Oracle, рост как нашего операционного дохода, так и прибыли на акцию ускорился», — указала в пресс-релизе гендиректор Oracle Сафра Кац (Safra Catz). Чистая прибыль (GAAP) компании составила $2,9 млрд или $1,03 на акцию, по сравнению с $2,4 млрд или $0,86 на акцию годом ранее (рост — 21 %).

Кац также сообщила в отчёте о заключении соглашения с AWS о размещении СУБД-инфраструктуры Oracle Database. AWS является крупнейшим поставщиком облачных сервисов по доле рынка. В отдельном пресс-релизе, посвящённом сделке, председатель и главный технический директор Ларри Эллисон (Larry Ellison) сообщил, что Oracle видит «огромный спрос» со стороны клиентов на работу с несколькими провайдерами облачных услуг. Таким образом, Oracle смогла склонить к сотрудничеству всё трёх ключевых игроков облачного рынка — ранее аналогичные сделки были заключены с Google и Microsoft.

 Источник изображения: Oracle

Источник изображения: Oracle

«Чтобы удовлетворить этот спрос и предоставить клиентам выбор и гибкость, которые им нужны, Amazon и Oracle бесшовно соединяют сервисы AWS с новейшей технологией Oracle Database, включая Oracle Autonomous Database», — сказал Эллисон. «Благодаря развёртыванию инфраструктуры Oracle Cloud внутри ЦОД AWS мы можем предоставить клиентам максимально возможную производительность базы данных и сети», — добавил он.

Эллисон рассказал, что у Oracle есть 162 действующих и строящихся облачных ЦОД по всему миру. Самый большой из них имеет будет ёмкость 800 МВт, что позволит разместить множество кластеров ускорителей NVIDIA для обучения крупномасштабных моделей ИИ. А площадки для размещения ускорителей компании очень нужны, поскольку в отчётном квартале Oracle подписала 42 дополнительных контракта на облачные GPU на общую сумму $3 млрд, но не смогла заключить $10-млрд сделку с xAI.

Однако это не предел и компания «скоро» начнёт строительство ЦОД мощностью более 1 ГВт. По словам Эллисона, для одного из этих проектов уже выбрано место, и он находится в процессе проектирования. ЦОД будет работать на атомной энергии, поскольку Oracle получила разрешение на три малых модульных ядерных реакторов (SMR). Аналогичные проекты разрабатываются с участием компании Oklo, поддерживаемой главой OpenAI Сэмом Альтманом (Sam Altman). Впрочем, последняя уже присматривается к термоядерной энергетике. Microsoft, тесно связанная с OpenAI, тоже изучает SMR. Amazon же не стала мудрствовать и просто приобрела кампус, напрямую запитанный от обычной АЭС.

В текущем финансовом квартале компания ожидает получить скорректированную прибыль (Non-GAAP) в пределах $1,45–1,49 на акцию при росте выручки год к году на 7–9 %. Согласно консенсус-прогнозу аналитиков, опрошенных FactSet, скорректированная прибыль Oracle составит $1,48 на акцию.

Постоянный URL: http://servernews.ru/1110763
10.09.2024 [21:05], SN Team

Переход Газпромбанка на российскую экосистему «Базис» признан победителем премии «ИТ-лидер»

Перевод ИТ-инфраструктуры Газпромбанка на экосистему разработчика программных продуктов для организации динамической инфраструктуры «Базис» занял первое место в премии российских технологических решений «ИТ Лидер» в номинации «Цифровая индустрия 4.0» на Kazan Digital Week 2024.

Экспертный совет оценил масштабный проект по замещению иностранных решений в инфраструктуре банка, ключевым условием которого стало поддержание непрерывности и стабильности бизнес-процессов организации. В ходе реализации в Газпромбанке были развернуты два флагманских продукта «Базиса»: высокопроизводительная платформа для управления виртуальными серверами и контейнерами Basis Dynamix и платформа виртуализации рабочих мест Basis Workplace, а также система защиты облака Basis Virtual Security и ассистент миграции Migration Assistant. Особое внимание было уделено простоте и удобству масштабирования решений: так, на базе продуктов уже организовано более тысячи виртуальных машин, а в 2025 году число виртуальных рабочих мест в банке достигнет 30 тысяч единиц.

 Источник изображений: «Базис»

Источник изображений: «Базис»

Премия «ИТ-лидер», проводимая ежегодно в рамках международного форума Kazan Digital Week, награждает проекты и компании, которые демонстрируют лучшие отраслевые решения по 10 различным направлениям в области информационных технологий. Цель — поддержать популяризацию отечественных продуктов, полезных для цифровизации как бизнеса, так и государственных структур. В ходе оценки жюри присуждает проектам баллы по каждому из критериев: соответствию решения заявленной номинации, его актуальности и функциональным возможностям, потенциалу масштабируемости, а также удобству и простоте применения для широкого круга пользователей.

Конкурсная программа «ИТ Лидер» проходила в пять этапов. На первом этапе участники подавали заявки и регистрировали собственные продукты. Затем проводился первый отбор — модерация решений. Далее запустилось голосование, по итогам которого были определены три лидера в каждой номинации. В ходе финальных этапов, на форуме, состоялась публичная защита проектов-финалистов: представители ИТ-вендоров презентовали кейсы и ответили на вопросы комиссии. Защита завершилась голосованием жюри и выбором победителя.

Ранее платформа Basis Dynamix заняла первое место в отраслевом рейтинге CNews, став лучшей российской платформой виртуализации. Флагманский продукт со значительным отрывом обошел другие российские разработки.

Реклама | ООО "БАЗИС" ИНН 7731316059 erid: F7NfYUJCUneLuWCtEXp4

Постоянный URL: http://servernews.ru/1110753
10.09.2024 [14:55], Сергей Карасёв

TACC ввёл в эксплуатацию Arm-суперкомпьютер Vista на базе NVIDIA GH200 для ИИ-задач

Техасский центр передовых вычислений (TACC) при Техасском университете в Остине (США) объявил о том, что мощности нового НРС-комплекса Vista полностью доступны открытому научному сообществу. Суперкомпьютер предназначен для решения ресурсоёмких задач, связанных с ИИ.

Формальный анонс машины Vista состоялся в ноябре 2023 года. Тогда говорилось, что Vista станет связующим звеном между существующим суперкомпьютером TACC Frontera и будущей системой TACC Horizon, проект которой финансируется Национальным научным фондом (NSF).

Vista состоит из двух ключевых частей. Одна из них — кластер из 600 узлов на гибридных суперчипах NVIDIA GH200 Grace Hopper, которые содержат 72-ядерный Arm-процессор NVIDIA Grace и ускоритель H100/H200. Обеспечивается производительность на уровне 20,4 Пфлопс (FP64) и 40,8 Пфлопс на тензорных ядрах. Каждый узел содержит локальный накопитель вместимостью 512 Гбайт, 96 Гбайт памяти HBM3 и 120 Гбайт памяти LPDDR5. Интероконнект — Quantum 2 InfiniBand (400G).

Второй раздел суперкомпьютера объединяет 256 узлов с процессорами NVIDIA Grace CPU Superchip, содержащими два кристалла Grace в одном модуле (144 ядра). Узлы укомплектованы 240 Гбайт памяти LPDDR5 и накопителем на 512 Гбайт. Интерконнект — Quantum 2 InfiniBand (200G). Узлы произведены Gigabyte, а за интеграцию всей системы отвечала Dell.

 Источник изображения: TACC

Источник изображения: TACC

Общее CPU-быстродействие Vista находится на отметке 4,1 Пфлопс. В состав комплекса входит NFS-хранилише VAST Data вместимостью 30 Пбайт. Суперкомпьютер будет использоваться для разработки и применения решений на основе генеративного ИИ в различных секторах, включая биологические науки и здравоохранение.

Постоянный URL: http://servernews.ru/1110711
10.09.2024 [13:29], Руслан Авдеев

Дата-центры — новый люкс: индийский застройщик элитной недвижимости Rustomjee займётся ЦОД на фоне бума ИИ

Индийская Rustomjee, ранее занимавшаяся преимущественно строительством элитной недвижимости, пересматривает векторы развития. По данным Bloomberg, компания намерена заняться строительством дата-центров в Мумбаи на фоне бума ИИ — это крупнейший рынок недвижимости страны. Впрочем, от строительства жилья премиум-класса компания отказываться не намерена.

Дата-центры будут возводить на территории около 465 тыс. м2 в Тхане (Thane) — пригороде Мумбаи, где у компании имеются «экономические интересы». Rustomjee фактически является брендом компании Keystone Realtors и намерена найти для проекта финансового партнёра. По такой схеме уже реализуются некоторые её проекты, в т.ч. в Тхане. Расположение пригорода весьма удачно, а на его территории уже развёрнута оптоволоконная инфраструктура и доступна электроэнергия.

 Источник изображения: sagjass/pixabay.com

Источник изображения: sagjass/pixabay.com

Ёмкость ЦОД в Индии с 2019 года почти удвоилась, что, по данным Avendus Capital, привлекло внимание многих инвесторов. Предположительно, только в Мумбаи в следующие пять лет мощности вырастут на 40 %. Инвесторы и компании, уже имеющие ЦОД, отмечают в текущем году взлёт стоимости своих акций — это обусловлено тем, что они предоставляют инфраструктуру, необходимую для внедрения ИИ.

Keystone Realtors, чья капитализация в этом году достигла $1 млрд, начала деятельность в 1995 году со строительства доступного жилья в одном из пригородов Мумбаи, но позже её бренд Rustomjee, сформированный в 2001 году, переключился на иные проекты. Ранее в этом году представитель компании уже сообщил журналистам, что рассматривается бизнес, связанный со строительством ЦОД.

В апреле текущего года в докладе DC Byte сообщалось, что Индия стала самым быстрорастущим рынком ЦОД в Азиатско-Тихоокеанском регионе. Так, в Мумбаи общая ёмкость достигла 2,6 ГВт, распределённых между двумя кластерами — в Центральном Мумбаи и Нави-Мумбаи (Navi Muṃbaī). В стране присутствуют и другие крупные операторы ЦОД, включая STT, NTT, Iron Mountain, PDG, CtrlS, Equinix и Tata. $2 млрд на строительство ЦОД в регионе намерена потратить и AWS. CapitaLand ожидает, что индийский рынок ЦОД ежегодно будет расти на 20–25 % до конца десятилетия.

Постоянный URL: http://servernews.ru/1110724
10.09.2024 [08:59], Руслан Авдеев

Гигаватт на орбите: Lumen Orbit предложила гигантские космические ЦОД с питанием от солнечной энергии и пассивным охлаждением

Пока многие операторы ЦОД бьются за место и ресурсы для своих дата-центров на Земле, стартап Lumen Orbit трудится над созданием гигантских гигаваттных дата-центров на земной орбите. По словам компании, работа уже началась — первый спутник компании отправится в космос в 2025 году. Он, как ожидается, получит на два порядка более мощные ускорители, чем те, что когда-либо отправлялись в космос. Информация о проекте Lumen Orbit появилась ещё весной, но теперь обнародованы новые подробности.

Как сообщается в материалах компании, будущие ЦОД гиперскейл-класса будут серьёзно нагружать энергосети (и уже делают это сегодня), станут потреблять немало питьевой воды, а их работа будет всё хуже сочетаться с законами и правилами регуляторов «западного» мира. Другими словами, многогигаваттные ЦОД будет чрезвычайно трудно строить. Поэтому Lumen Orbit предлагает размещать дата-центры на околоземной орбите, лежащей в плоскости терминатора. Таким образом, солнечные элементы питания будут всегда освещены, а радиаторы пассивного охлаждения всегда в тени. А космическое излучение здесь не так сильно, чтобы быстро выводить из строя электронику.

 Источник изображений: Lumen Orbit

Источник изображений: Lumen Orbit

Одно из важнейших свойств решения Lumen Orbit — возможность почти бесконечного масштабирования из-за минимума регуляторных запретов и ограничений на потребляемые ресурсы, говорит компания. Согласно расчётам, солнечная энергия в космосе будет обходиться в $0,002/кВт∙ч, тогда как электричество в США, Великобритании и Японии сегодня в среднем стоит $0,045, $0,06 и $0,17 за кВт∙ч соответственно. Кроме того, вода в космосе совершенно не понадобится, а системы пассивного охлаждения (путём излучения) будут многократно эффективнее и стабильнее земных аналогов. Не понадобятся и резервные источники питания.

 Источник изображения: Lumen Orbit

Компания уже разработала и начала строительство первого космического аппарата. Разработан концептуальный дизайн микро-ЦОД, развёртывание которых запланировано на 2026 год,. Также планируется запуск крупного дата-центра Hypercluster — это будет возможно, когда начнётся коммерческая эксплуатация кораблей уровня SpaceX Starship. Сообщается, что уже заключены меморандумы о взаимопонимании, предполагающие использование ускорителей NVIDIA H100 в космосе.

В компании утверждают, что для обучения больших языковых моделей вроде Llama 5 или GPT-6 в 2027 году потребуются 5-ГВт кластеры, которые создадут огромную нагрузку на электростанции и энергосети. Но в космосе можно будет создавать компактные модульные 3D-структуры. Передача данных может осуществляться с помощью лазеров. Более того, возможна совместимость с системами вроде Starlink, а когда необходимо — даже переброс данных специальными шаттлами. Об астрономах тоже не забыли — космические ЦОД будут заметны в основном на рассветах и закатах.

Lumen Orbit предлагает отправлять укомплектованные контейнеры с серверами и всем необходимым оборудованием, который имеют универсальный порт для питания, сети, охлаждения и т.д. Через этот порт они подключаются к единой «шине». ЦОД мощностью 5 ГВт потребует развёртывание солнечных элементов размером приблизительно 4 × 4 км. Подходящие панели уже выпускаются и стоят порядка $0,03/Ватт. Тяжёлые ракеты будущего смогут поднимать на орбиту около 100 т. Этого достаточно для доставки модуля с 300 наполовину заполненными стойками (остальное пойдёт на вспомогательные системы).

На 5-Гвт ЦОД ориентировочно потребуется менее 100 запусков при цене до $10/кг, а одной многоразовой ракеты будет достаточно для вывода на орбиту большого ЦОД за два-три месяца. Размещение на оптимальных орбитах и отсутствие некоторых агрессивных факторов влияния от нестабильных температур до окисления воздухом позволят эксплуатировать ЦОД в течение 15 лет, а многие компоненты можно будет использовать и после этого срока, говорит компания.

Впрочем, в намерении Lumen Orbit нет ничего уникального. Ещё в конце 2023 года появлялась информация о том, что Axiom Space намерена построить космический дата-центр. Космический буксир Blue Ring Джеффа Безоса (Jeff Bezos) должен выполнять функции ЦОД, группировку спутников-суперкомпьютеров намерены создать даже итальянские военные, аналогичные проекты вынашивают и другие компании. Lumen Orbit тем временем получила финансовую поддержку от Y Combinator и NVIDIA.

Постоянный URL: http://servernews.ru/1110643
09.09.2024 [23:35], Владимир Мироненко

Госсектор РФ уже потратил 200 млрд рублей на закупку ПО и оборудования в 2024 году

В связи с требованием заменять иностранные решения, а также трендом на цифровизацию предприятия госсектора потратили на закупки оборудования и ПО 200,05 млрд руб., пишут «Ведомости» со ссылкой на исследование Right line.

По данным аналитического центра Right line, объём госзакупок в сфере IТ согласно закону от 05.04.2013 № 44-ФЗ «О контрактной системе в сфере закупок товаров, работ, услуг для обеспечения государственных и муниципальных нужд», регулирующему закупки госорганов и компаний, которые на 100 % принадлежат государству, за восемь месяцев 2024 года вырос год к году на 8,7 % до 200,05 млрд руб. Всего на портале госзакупок было размещено 55 166 закупок — +11,5 % в сравнении с аналогичным периодом 2023 года.

При этом, объём закупок согласно закону «О закупках товаров, работ, услуг отдельными видами юридических лиц» от 18.07.2011 N 223-ФЗ, регулирующему закупки компаний с долей государства не менее 50 %, сократился год к году на 9,8 %, хотя количество закупок выросло на 1 % до 21 124. Количество закупок софта и лицензий по 223-ФЗ составило 6256 (падение на 0,4 %), оборудования — 15 064 (рост 1,1 %). Объём закупок ПО упал год к году на 11,5 % до 33,24 млрд руб., оборудования — на 8,4 % до 39,52 млрд руб.

 Источник изображения:  Centre for Ageing Better / Unsplash

Источник изображения: Centre for Ageing Better / Unsplash

Количество госзакупок ПО и лицензий за отчётный период по 44-ФЗ увеличилось на 3,7 % до 12 437 единиц. В частности, закупки компьютеров и периферийного оборудования выросли на 14 % д 42 816 единиц. При этом объём закупок ПО согласно 44-ФЗ в денежном выражении вырос на 16,7 %, оборудования — на 14 % до 101,74 и 98,32 млрд руб. соответственно.

Наибольший объём закупок IТ в рамках 44-ФЗ был отмечен в Москве, Санкт-Петербурге, Калужской, Ярославской и Ростовской областях. Лидерами по объёму закупок согласно 223-ФЗ стали Москва, Московская область, Санкт-Петербург и Краснодарский край.

В Right line объясняют рост закупок стремительным развитием технологий и необходимостью обеспечения кибербезопасности госструктур. Также в аналитической компании отметили, что в отчёте учитывалась начальная максимальная цена контрактов, установленная в тендерах, опубликованных в открытом доступе на портале госзакупок. При этом часть закупок могла не состояться, а начальная цена многих договоров — снизиться.

Аналитики также сообщили о росте закупок коммерческих компаний, которые не относятся к госструктурам и юрлицам с госучастием. По данным B2B-Center, объём закупок ПО у них вырос вдвое год к году, с 14,1 до 27,5 млрд руб. Также увеличилось количество закупок — на 38 %, с 2,9 тыс. до 4 тыс. В сегменте компьютеров и комплектующих объём закупок в денежном выражении увеличился на 40 % с 51,7 до 72,3 млрд руб.

Постоянный URL: http://servernews.ru/1110682
09.09.2024 [16:28], Руслан Авдеев

Тоньше и меньше: производство оптоволоконных кабелей в России упало на 18 %

В I половине 2024 года выпуск оптоволоконных кабелей в России сократился на 18 % год к году в натуральном выражении, пишет «Коммерсантъ». По данным издания, отраслевые эксперты уверены, что это связано со снижением спроса со стороны отечественных операторов связи, но последние утверждают, что строительство магистральных линий продолжается высокими темпами. При этом эксперты уверены, что для развития отрасли нужны крупные государственные заказы.

О сокращении производства оптоволоконных кабелей сообщила ассоциация «Электрокабель» (АЭК). По её данным, за указанный период задействовано 1,35 млн км волокна, годом ранее — 1,64 млн км, а в I полугодии 2022 года — 1,8 млн км. Собственно кабелей год к году выпущено 82 тыс. км (-3,6 %), 85 тыс. км (+2 %) и 84 тыс. км (-34 %) соответственно. Более того, в кабелях буквально стали использовать меньше оптоволокна. АЭК и ранее говорила о снижении производства.

В АЭК уверены, что причина может быть только в том, что упал спрос операторов связи, причём импорт в I квартале в деньгах тоже упал на 20 %. Снижение «волоконности» может указывать на развитие абонентских и конечных сетей, в первую очередь региональных, и снижение спроса на магистральные решения. С последним не согласны операторы связи. Во всяком случае, об активной прокладке ВОЛС сообщают «Вымпелком» и МТС, а в «МегаФоне» заявили, что строительства ВОЛС за полугодие выросло на 16 % год к году.

 Источник изображения:  Monisha Selvakumar/unsplash.com

Источник изображения: Monisha Selvakumar/unsplash.com

«Ростелеком» намерен проложить в текущем году 3 тыс. км Трансевразийской линии связи (TEA NEXT), общая протяжённость магистрали на территории России должна составить 11 тыс. км. При этом единственный в России производитель оптоволокна — компания «Оптоволоконные системы» заявляет, что без TEA NEXT продажи в 2024 году и вовсе упали более чем на 50 %. Обе компании намерены ускорить импортозамещение оптоволокна.

По мнению экспертов, спрос на кабели в России сегодня в первую очередь связан с государственными проектами, бизнес-потребности стоит учитывать во вторую очередь, а без государственного спроса рост рынка маловероятен. Впрочем, рост государственных заказов тоже не представляется некоторым «актуальным рыночным трендом», пишет «Коммерсантъ».

Постоянный URL: http://servernews.ru/1110674
09.09.2024 [16:00], Владимир Мироненко

Корпоративная ИИ-платформа под ключ: HPE и NVIDIA объявила о доступности HPE Private Cloud AI

(HPE) объявила о доступности входящей в портфель NVIDIA AI Computing by HPE программно-аппаратной платформы HPE Private Cloud AI на базе GreenLake, разработанной совместно с NVIDIA для создания и запуска корпоративных приложений генеративного ИИ. По словам компании, ключевым отличием HPE Private Cloud AI являются решения для автоматизации и оптимизации приложений ИИ, позволяющие предприятию сократить сроки запуска виртуальных помощников с нескольких месяцев до мгновений.

К числу таких решений («ускорителей» в терминологии HPE) относится виртуальный помощник на базе генеративного ИИ, который поможет разработчикам быстро создавать интерактивные чат-боты, отвечающие на вопросы на естественном языке, на основе собственных данных организации и открытых больших языковых моделей (LLM).

Компании смогут с их помощью настраивать свои приложения ИИ для различных целей, таких как техническая поддержка, формирование коммерческих предложений, создание маркетингового контента и многое другое. Виртуального помощника можно усовершенствовать, добавив в будущем голосовой ввод, возможность работы с изображениями и многокомпонентную поддержку, обеспечивая более продвинутую генерацию контента и работу в режиме многозадачности.

 Источник изображений: HPE

Источник изображений: HPE

Как утверждает HPE, будущие пакеты решений будут включать в себя широко используемые приложения ИИ для вертикальных отраслей, включая финансовые услуги, здравоохранение, розничную торговлю, энергетику и государственный сектор. Они будут основаны на NVIDIA NIM Agent Blueprints, эталонных вариантах ИИ-решений, которые предприятия смогут постоянно совершенствовать на основе собственных данных и отзывов клиентов.

«Предприятия ищут ускоренные, настраиваемые инструменты ИИ, подходящие для конкретных вариантов использования с учётом их специфики, — говорит Джастин Бойтано (Justin Boitano), вице-президент по корпоративным программным продуктам ИИ в NVIDIA. — NVIDIA NIM Agent Blueprints позволяет приложениям ИИ, разработанным с помощью HPE Private Cloud AI, совершенствоваться с использованием обратной связи от живых пользователей, улучшая модели в рамках непрерывного цикла обучения».

«Ускорители» HPE — это настраиваемые модульные low-code или no-code приложения, использующие микросервисы NVIDIA NIM. Эти проверенные и воспроизводимые решения упрощают развёртывание приложений ИИ, которое обычно включает приобретение новых навыков, принятие сложных рабочих нагрузок, а также интеграцию и настройку агентов, нескольких микросервисов, векторных баз данных, хранилищ данных, разрозненных источников данных, систем управления пользователями, масштабируемых серверов инференса, наборов данных, моделей ИИ и других ИТ-ресурсов.

HPE также объявила о запуске партнёрской программы Unleash AI, разработанной для поддержки обширной экосистемы ведущих организаций-партнёров. Unleash AI является частью Technology Partner Program, входящей в инициативу HPE Partner Ready, которая дополнит HPE Private Cloud AI. Новая программа будет включать поставщиков на всех уровнях — от данных, моделей и приложений технологического стека до системных интеграторов и поставщиков услуг консалтинга, проектирования, внедрения и управления комплексными решениями для клиентов на основе ИИ.

Решения партнёров, в том числе основанные на NVIDIA NIM Agent Blueprints, будут курироваться и предварительно проверяться для работы в HPE Private Cloud AI. Эта программа дополнит новую стратегию партнёрства в области ИИ, которую HPE объявила в сотрудничестве с NVIDIA.

Постоянный URL: http://servernews.ru/1110649
09.09.2024 [12:10], Руслан Авдеев

LLM в комплекте: Red Hat выпустила платформу RHEL AI для работы с генеративным ИИ

Red Hat объявила о запуске платформы Red Hat Enterprise Linux AI (RHEL AI) для создания генеративных ИИ-решений в облачных средах. По данным Silicon Angle, анонсированный три месяца назад пакет ПО сделали общедоступным в ходе мероприятия Red Hat Summit.

Ранее анонсированный пакет включает семейство открытых языковых моделей IBM Granite, а также инструмент настройки моделей InstructLab, разработанный самой RedHat. Всё это объединили в образ RHEL для развёртывания в гибридных облаках и на локальных площадках. В компании сообщили, что RHEL AI упростит и удешевит разработку компактных и недорогих моделей.

Затраты на обучение моделей могут быть очень высокими, в Red Hat сообщают, что на создание некоторых передовых моделей уходит до $200 млн. И это только на обучение, без учёта стоимости самих данных и настройки, критически важной для выполнения специальных задач каждой конкретной компании. В Red Hat уверяют, что будущее за небольшими генеративными ИИ-моделями, большинство которых будет open source.

 Источник изображения: Red Hat

Источник изображения: Red Hat

В компании рассчитывают, что RHEL AI станет основной платформой для создания «бюджетных» и открытых решений. По умолчанию предоставляется библиотека бесплатных LLM Granite общего назначения. InstructLab поможет в тонкой настройке моделей без обширных навыков, связанными с наукой о данных. А интеграция с Red Hat OpenShift AI упростит обучение, настройку и обслуживание моделей. RHEL AI позволит разворачивать генеративный ИИ в непосредственной близости от баз данных и хранилищ компаний.

RHEL AI оптимизирован для развёртывания на новейших серверах Dell PowerEdge и обеспечивает все возможности, предоставляемые подпиской Red Hat, в т.ч. круглосуточную поддержку, расширенную поддержку жизненного цикла моделей и, например, правовую защиту Open Source Assurance. Поскольку RHEL AI фактически является расширением Red Hat Enterprise Linux, дистрибутив можно использовать и на любом другом оборудовании, в том числе в облаках. Решение уже доступно у AWS и IBM Cloud, в Google Cloud и Azure появится возможность использовать его позже в этом году. В IBM Cloud ожидается появление предложения «как услуги» — по подписке в самом облаке, но только в следующем году.

Ранее сообщалось, что для запуска RHEL AI требуются весьма производительные сертифицированные системы с ускорителями, имеющими минимум 320 Гбайт памяти и хранилище от 200 Гбайт. Среди протестированных указаны серверы Dell с четырьмя NVIDIA H100, Lenovo с восемью AMD Instinct MI300X, а также инстансы IBM Cloud GX3. Вскоре обещана поддержка инстансов AWS EC2 P5 с NVIDIA H100 и ускорителей Intel.

Постоянный URL: http://servernews.ru/1110662
Система Orphus