Материалы по тегу: s

01.07.2025 [14:18], Владимир Мироненко

HPE продаст Instant On, чтобы купить Juniper, а Juniper лицензирует Mist, чтобы продаться HPE

Компании Hewlett Packard Enterprise (HPE) и Juniper Networks объявили о достижении соглашения об урегулировании с Министерством юстиции США, оспорившим в суде в январе приобретение Juniper компанией HPE в связи с тем, что это существенно навредит конкуренции на рынке беспроводных сетей.

27 июня соглашение было направлено в Окружной суд США по Северному округу Калифорнии для получения одобрения судьи, но считается, что это является чистой формальностью, сообщает Reuters. Стороны урегулировали разногласия менее чем за две недели до начала судебного разбирательства 9 июля.

В рамках урегулирования HPE согласилась продать портфолио решений Instant On для кампусных и филиальных беспроводных сетей, которое ориентировано на средние и малые компании с небольшим штатом IT-специалистов или вообще без таковых. В течение 180 дней с момента закрытия сделки должны быть проданы все активы, включая интеллектуальную собственность, R&D-активы и клиентскую базу.

 Источник изображения: HPE

Источник изображения: HPE

Также после закрытия сделки HPE обеспечит ограниченный доступ к передовой технологии Mist AI Ops компании Juniper и выставит на аукцион её исходный код. Как отметил ресурс SiliconANGLE, эта технология является одним из ключевых активов, которые HPE хотела получить, когда объявляла о поглощении Juniper в январе 2024 года.

«Стороны должны провести аукцион для лицензирования исходного кода Juniper Mist AI Ops — важного компонента в современных системах WLAN, — заявило Министерство юстиции США в конце прошлой недели. — Лицензия будет бессрочной, неисключительной и будет включать дополнительную переходную поддержку и перевод персонала для содействия конкуренции». Правительство разрешило трём или более компаниям подать заявку на этот актив. Если несколько участников предложат более $8 млн, только двум будут предоставлены права на исходный код.

После выбора лицензиата компания должна будет способствовать переводу к нему до 30 инженеров Juniper, работающих с исходным кодом, и до 25 сотрудников отдела продаж, имеющих опыт с Mist. Объединённая HPE-Juniper также предоставит финансовые стимулы для поощрения сотрудников к переходу на новое место работы. Лицензия будет включать положение о нежелательности переманивания других сотрудников в течение года. Наконец, победителям торгов будет предоставлено 12 месяцев услуг по переходу.

 Источник изображения: Juniper Networks

Источник изображения: Juniper Networks

SiliconANGLE выразил сомнение в целесообразности требования Минюста лицензировать исходный код Mist AI Ops третьим лицам. С требованием отказаться от Instant On всё понятно — это снижает совокупную долю рынка компании. Но вот принуждение HPE-Juniper лицензировать Mist не даст рынку ничего, тогда как объединённой компании придётся передать лучшее в своем классе сетевое ПО AI Ops в чужие руки. Это показывает, что Минюст США не понимает всех тонкостей этого вопроса.

«Впервые у клиентов появится альтернативная современная сетевая архитектура, которая наилучшим образом будет соответствовать требованиям рабочих нагрузок ИИ. Объединение HPE Aruba Networking и Juniper Networks предоставит клиентам комплексный портфель безопасных сетевых решений на основе ИИ и ускорит рост HPE в сегментах ИИ ЦОД, поставщиков услуг и облачных сервисов», — указал в пресс-релизе Антонио Нери (Antonio Neri), гендиректор и президент HPE.

HPE также заверила клиентов, что слияние не отразится на работе в худшую сторону. Оба набора продуктов будут сосуществовать и в конечном итоге будут объединены, но принуждать к переходу никого не будут.

Постоянный URL: http://servernews.ru/1125212
01.07.2025 [11:45], Сергей Карасёв

Amazon запустила инстансы EC2 C8gn с чипами Graviton4 для требовательных сетевых нагрузок

AWS представила инстансы EC2 C8gn, рассчитанные на ресурсоёмкие сетевые нагрузки. Они обеспечивают пропускную способность до 600 Гбит/с, что является самым высоким показателем среди оптимизированных для подобных задач экземпляров EC2. В основу новых инстансов положены фирменные процессоры Graviton4 и карты AWS Nitro шестого поколения.

CPU содержат 96 ядер Neoverse V2 (Demeter) с 2 Мбайт кеша L2 в расчёте на ядро. Экземпляры EC2 C8gn предоставляют от 1 до 192 vCPU, а объём оперативной памяти варьируется от 2 до 384 ГиБ. Пропускная способность сетевого подключения составляет от 25 до 600 Гбит/с, пропускная способность EBS — от 10 до 60 Гбит/с. Инстансы можно запускать через консоль управления AWS, интерфейс командной строки (AWS CLI) или AWS SDK.

 Источник изображения: AWS

Источник изображения: AWS

Отмечается, что экземпляры EC2 C8gn подходят для таких задач, как виртуальные брандмауэры, маршрутизаторы, балансировщики нагрузки, прокси-серверы, системы защиты от DDoS-атак, платформы аналитики больших данных и пр. AWS подчёркивает, что инстансы EC2 C8gn обеспечивают на 30 % более высокую вычислительную производительность по сравнению с EC2 C7gn на базе Graviton3. При этом процесс миграции на новые экземпляры не должен вызвать у клиентов сложностей, поскольку EC2 C8gn предлагают схожие соотношения vCPU и памяти. Инстансы EC2 C8gn уже доступны в регионах US East (Северная Вирджиния) и US West (Орегон).

Постоянный URL: http://servernews.ru/1125192
01.07.2025 [09:02], Владимир Мироненко

Крупнейший в истории AWS ИИ-суперкомпьютер Project Rainier охватит несколько ЦОД, но будет экологичным

В настоящее время Amazon Web Services (AWS) занимается строительством ИИ-суперкомпьютера Project Rainier. Проект, охватывающий несколько ЦОД в США, по своим масштабам не похож ни на что, что когда-либо пыталась реализовать AWS. Этот огромный уникальный суперкомпьютер разработан для создания и работы ИИ-моделей следующего поколения.

Партнёром AWS в реализации проекта выступает ИИ-стартап Anthropic, который будет использовать новый ИИ-кластер для создания и развёртывания будущих версий LLM Claude. У компаний довольно тесные отношения, а появление Project Rainier снизит зависимость Anthropic и AWS от дефицитных ускорителей NVIDIA, которых не хватает и для собственных нужд Amazon.

«Rainier обеспечит в пять раз больше вычислительной мощности по сравнению с крупнейшим в настоящее время кластером Anthropic», — сообщил Гади Хатт (Gadi Hutt), директор по разработке и проектированию продуктов Annapurna Labs, подразделения AWS по разработке чипов. Чем больше вычислений вложить в обучение Claude, тем умнее и точнее будет модель. «Мы создаём вычислительную мощность в масштабах, которых никогда не было раньше, и мы делаем это с беспрецедентной скоростью и гибкостью», — подчеркнул Хатт.

 Источник изображений: Amazon

Источник изображений: Amazon

Сообщается, что Project Rainier спроектирован как огромный кластер EC2 UltraCluster, состоящий из серверов UltraServers с Trainium2. Trainium2 — ИИ-ускоритель собственной разработки Amazon, предназначенный для обучения ИИ-моделей. UltraServer — новый тип вычислительной системы, которая объединяет четыре физических сервера, каждый из которых содержит 16 ускорителей Trainium2, взаимодействие между которыми осуществляется с помощью интерконнекта NeuronLinks (кабели синего цвета на фото).

Связь между компонентами суперкомпьютера реализуется на двух критических уровнях: NeuronLinks обеспечивают высокоскоростные соединения внутри UltraServer, в то время как DPU Elastic Fabric Adapter (EFA) объединяет UltraServer внутри ЦОД и между ЦОД. Этот двухуровневый подход позволяет максимизировать скорость в местах, где в этом больше всего есть потребность, сохраняя гибкость масштабирования в рамках нескольких дата-центров.

Эксплуатация и обслуживание такого огромного вычислительного кластера отличается повышенной сложностью. И в данном случае надёжность системы имеет первостепенное значение. Именно здесь подход компании к разработке оборудования и ПО действительно выходит на первый план, говорит компания. Благодаря тому, что AWS сама занимается разработкой оборудования, она может контролировать каждый аспект технологического стека, от мельчайших компонентов чипа до ПО и архитектуры самого ЦОД. Это также позволяет ускорить внедрение технологий и снизить затраты при внедрении ИИ.

«Когда у вас есть полная картина, от чипа до ПО и самих серверов, вы можете проводить оптимизацию там, где это имеет наибольший смысл», — говорит директор по инжинирингу Annapurna Labs Рами Синно (Rami Sinno). «Иногда лучшим решением может быть перепроектирование того, как подаётся питание серверов, или переписывание ПО, которое всё координирует. Это может происходить и одновременно. Поскольку у нас есть обзор всего на каждом уровне, мы можем быстро устранять неполадки и внедрять инновации гораздо быстрее», — добавил он.

Вместе с тем, по словам Amazon, внедрение мощной ИИ-инфраструктуры будет достаточно экологичным. Вся электроэнергия, потребляемая Amazon, включая её ЦОД, в 2023 году была полностью компенсирована закупками из возобновляемых источников энергии. В течение последних пяти лет Amazon была крупнейшим корпоративным покупателем возобновляемой энергии в мире. Компания инвестирует миллиарды долларов в ядерную энергию и использование аккумуляторов, а также в финансирование масштабных проектов возобновляемой энергии по всему миру. Amazon по-прежнему намерена добиться нулевого уровня выбросов углерода к 2040 году. И Project Rainier ей в этом поможет.

В прошлом году AWS объявила, что будет развёртывать новые компоненты, которые объединяют достижения в области питания и охлаждения, не только в строящихся, но и в существующих ЦОД. Их использование, как ожидается, позволит снизить потребление энергии механизмами до 46 % и сократить выбросы парниковых газов при производстве бетона на 35 %. Новые объекты для Project Rainier будут включать в себя различные усовершенствования для повышения энергоэффективности и экологичности с акцентом на сокращение потребления водных ресурсов и использованию забортного воздуха для охлаждения.

Например, в ЦОД в округе Сент-Джозеф (St. Joseph), штат Индиана, с октября по март ЦОД вообще не будут использовать воду для охлаждения, а с апреля по сентябрь питьевая вода будет нужна только в течение нескольких часов в день. Amazon не уточняет, о каком именно кампусе идёт речь, но уже известно, что компания строит в Индиане дата-центр, который будет потреблять энергии как половина населения штата.

Благодаря инженерным инновациям AWS является лидером отрасли по эффективности использования воды, заявляет компания. На основании результатов недавнего исследования Национальной лаборатории Лоуренса в Беркли, посвящённого эффективности использования воды в ЦОД, отраслевой стандартный показатель составляет 0,375 л/кВт·ч, тогда как у AWS он равен всего 0,15 л/кВт·ч. Компания улучшила этот параметр на 40 % по сравнению с 2021 годом.

Постоянный URL: http://servernews.ru/1125125
30.06.2025 [21:20], Владимир Мироненко

Avanpost: в корпоративном сегменте по-прежнему большей частью полагаются на обычные пароли и LDAP

Согласно исследованию «Лаборатории Касперского», более трети россиян готовы вместо пароля использовать альтернативные способы авторизации. В корпоративном сегменте такой готовности пока не наблюдается, о чём свидетельствуют результаты исследования Avanpost.

В рамках исследования специалисты Avanpost рассмотрели самые востребованные классы решений корпоративной инфраструктуры: VPN, VDI, Wi-Fi и сеть; корпоративные коммуникации (почта, ВКС); ERP/ЭДО; Service Desk; АРМы и серверы, а также средства разработки (например, GitLab). По каждому из них оценивалась доля использования пяти методов аутентификации: «обычные» пароли, доменная аутентификация, RADIUS, SAML и OpenID Connect.

В исследовании отмечено, что в современных корпоративных системах по-прежнему широко используется аутентификация на основе паролей и LDAP. Основная причина заключается в том, что заказчиками зачастую не предъявляются требования по поддержке коробочными корпоративными решениями современных механизмов аутентификации, говорит компания.

Это связано с отсутствием в корпоративных инфраструктурах централизованных современных сервисов Identity Provider (IDP), а также с длительным жизненным циклом (5–10 лет) ранее внедрённых систем. К тому же множество широко распространённых продуктов и платформ проектировались и развивались с учётом архитектуры, заложенной десятки лет назад.

 Источник изображения: Bruno Brito / Unsplash

Источник изображения: Bruno Brito / Unsplash

В корпоративных системах по-прежнему остаются самым распространённым методом аутентификации традиционные «обычные» пароли, несмотря на агитацию Google, Apple и Microsoft за отказ от них. Во всех проанализированных в исследовании категориях их использование близко к 100 %, несмотря на наличие современных решений. На втором место по распространённости в корпоративном сегменте находится доменная LDAP-аутентификация, хотя это общепризнанный антипаттерн, говорит компания. Особенно широко она используется в инфраструктурном сегменте (АРМы и серверы), а также в корпоративных решениях для VPN, VDI и Wi-Fi-средах с долей до 90–100 %. Это объясняется высокой совместимостью с внутренними сетями и политиками безопасности Microsoft Active Directory и другими решениями экосистемы Microsoft.

Протокол SAML (Security Assertion Markup Language) используется в 50–60 % системах ERP и службах поддержки, особенно — в SaaS/PaaS, интегрируемых с корпоративными провайдерами удостоверений, размещёнными во внутренней инфраструктуре, преимущественно за счёт возможности взаимодействия через пользователей. «Особенно удивляет сохраняющаяся тенденция реализовывать поддержку SAML в новых продуктах вместо поддержки более современного протокола OpenID Connect», — сообщили исследователи. OpenID Connect больше всего используют в средствах разработки — до 60 % случаев, тогда как в остальных категориях его доля составляет менее 30 %. При этом использование OpenID Connect в других классах корпоративных решений остаётся на достаточно низком уровне.

 Источник изображения: Avanpost

Источник изображения: Avanpost

По итогам исследования в Avanpost пришли к выводу, что корпоративные IT-инфраструктуры по-прежнему находятся в стадии трансформации в вопросах аутентификации. На фоне широкого распространения встроенной парольной и LDAP-аутентификации всё же заметен рост интереса к современным IdP-протоколам OpenID Connect и SAML. Вместе с тем уровень готовности большинства коробочных продуктов к использованию современных протоколов аутентификации оставляет желать. RADIUS по-прежнему широко используются при интеграции с внутренними системами из-за высокой совместимости с ранее закупленным сетевым оборудованием.

Хотя большинство корпоративного ПО продолжает полагаться на традиционные схемы аутентификации с паролями и LDAP, и лишь незначительная часть приложений (примерно 5–10 %) из коробки поддерживает OpenID Connect, грамотная стратегия миграции позволит организациям постепенно повысить уровень безопасности и удобства для пользователей без чрезмерных рисков и затрат, отметили исследователи. «Фокус на централизованной платформе IAM и в целом на Identity-центричном подходе к аутентификации и развитие культуры безопасности поможет сделать переход последовательным и контролируемым, не остановив, при этом, текущие бизнес-процессы», — сообщили в Avanpost.

Постоянный URL: http://servernews.ru/1125159
29.06.2025 [21:11], Сергей Карасёв

Таёжное облако: ИИ-кластер Northern Data Njoerd вошёл в рейтинг TOP500

Немецкая компания Northern Data Group, поставщик решений в области ИИ и НРС, объявила о том, что её система Njoerd вошла в июньский рейтинг мощнейших суперкомпьютеров мира TOP500. Этот вычислительный комплекс, расположенный в Великобритании, построен на платформе HPE Cray XD670.

Машина Njoerd попала на 26-е место списка TOP500. Она объединяет 244 узла, каждый из которых содержит восемь ускорителей NVIDIA H100. В общей сложности задействованы примерно 28,5 млн ядер CUDA. Кроме того, в составе системы используются процессоры Intel Xeon Platinum 8462Y+ (32C/64C, 2,8–4,1 ГГц, 300 Вт). Применён интерконнект Infiniband NDR400.

FP64-производительность Njoerd достигает 78,2 Пфлопс, а теоретическое пиковое быстродействие составляет 106,28 Пфлопс. При рабочих нагрузках ИИ суперкомпьютер демонстрирует производительность 3,86 Эфлопс в режиме FP8 и 1,93 Эфлопс в режиме FP16.

Заявленный показатель MFU (Model FLOPs Utilization) при предварительном обучении современных больших языковых моделей (LLM) находится на уровне 50–60 %. Таким образом, как утверждается, система Njoerd на сегодняшний день представляет собой наиболее эффективный кластер H100 подобного размера, оптимизированный для ресурсоёмких рабочих нагрузок ИИ и HPC.

Суперкомпьютер входит в состав Taiga Cloud — одной из крупнейших в Европе облачных платформ, ориентированных на задачи генеративного ИИ. Эта вычислительная инфраструктура использует на 100 % безуглеродную энергию. Показатель PUE варьируется от 1,15 до 1,06. Доступ к ресурсам предоставляется посредством API или через портал самообслуживания. Одним из преимуществ Taiga Cloud компания Northern Data Group называет суверенитет данных.

 Источник изображения: Northern Data Group

Источник изображения: Northern Data Group

Постоянный URL: http://servernews.ru/1125115
27.06.2025 [16:15], Владимир Мироненко

Инфраструктура в публичном облаке России ежегодно увеличивается почти на треть

В период с 2022 по 2024 год на российском рынке облачных сервисов среди наиболее динамично развивающихся сегментов рынка следует отметить инфраструктуру в публичном облаке (IaaS) со среднегодовым темпом роста (CAGR) в размере 29 %, сообщается в исследовании компании Apple Hills Digital проведенном по методологии IDC, которое было дополнено экспертным анализом от VK Tech.

Особенно активно растёт спрос на услуги GPU-accelerated server — в среднем за год на 39,3 % — на фоне роста числа задач в области машинного обучения, обработки больших данных и аналитики. Как ожидается, подсегмент GPU-accelerated server сохранит высокие темпы и в дальнейшем — его CAGR в период с 2024 по 2029 год превысит 26 %. За это время российский рынок публичных IaaS увеличится более чем в 2,3 раза до 170,8 млрд руб. в 2029 году. Среднегодовой темп роста (CAGR) рынка за этот период составит 18,1 %.

В исследовании проведён анализ рынка облачных сервисов как в публичном облаке, так и в гибридных моделях использования — в частных облаках (Private Cloud), которые могут быть развёрнуты у провайдера и заказчика (on-premise). В 2024 году объём потребления в частных облаках (Private Cloud и On-Premise Cloud) превысил 40 млрд руб., составив 12 % всего рынка облачных сервисов. Реагируя на спрос, ведущие российские провайдеры вывели на рынок решения для развёртывания облачных сервисов в закрытых средах, соответствующих требованиям к информационной безопасности и запросу регулятора.

 Источник изображений: Apple Hills Digital

Источник изображений: Apple Hills Digital

Сегмент PaaS в России развивается медленнее других сегментов. Его доля рынка публичных облачных сервисов в 2024 году составила лишь 9 % или 28,9 млрд руб., что более чем вдвое ниже доли PaaS на мировом рынке публичных облачных сервисов, которая, согласно данным IDC, составляет 20 %. Основная причина этого заключается в отсутствии полноценной замены многим иностранным платформенным продуктам, что ограничивает развитие сегмента и в целом замедляет эволюцию российского рынка облачных сервисов, хотя российские провайдеры уже предлагают отдельные ML-Ops решения.

Согласно прогнозу аналитиков, с 2024 по 2029 год российский рынок публичных PaaS увеличится более чем в 3 раза до 89 млрд руб. в 2029 году. Среднегодовой темп роста (CAGR) за этот период составит 25,1 %.

Исследователи отметили, что на объём российского рынка влияет распространение в России практики внутреннего потребления облачных сервисов, которое рассматривается отдельно от рыночного потребления. На долю внутреннего потребления в 2024 году пришлось около 12 % от общего потребления облачных сервисов в России или 47 млрд руб., на рыночное потребление — 88 % или 345,7 млрд руб. Общий объём потребления облачных сервисов в РФ включая сегменты IaaS, PaaS и SaaS составил 392,7 млрд руб. Внутреннее потребление развито в сегментах PaaS (до 30 %) и IaaS (25 %), что свидетельствует о высоком технологическом уровне и преимуществах в ресурсах крупных групп с собственными облачными платформами и цифровыми инфраструктурами.

Apple Hills Digital отмечает, что российский рынок облачных сервисов находится под влиянием крупных финансовых и технологических групп, рост внутреннего потребления облачных сервисов в которых опережает темпы его развития. Также отмечается рост интереса к облачным сервисам в частных облаках провайдера и on-premise для повышения надёжности, безопасности и независимости ИТ инфраструктуры крупных заказчиков. VK Tech активно развивает VK Cloud в направлении платформенных сервисов, предлагая решения как публичного, так и частного облака. В 2024 году выручка её направления облачной платформы выросла на 82,3 % год к году до 5,8 млрд руб.

Постоянный URL: http://servernews.ru/1125060
26.06.2025 [16:36], Руслан Авдеев

Telxius и Ciena установили рекорд скорости передачи данных между США и Европой по трансатлантическому кабелю Marea

Компании Telxius и Ciena объявили о достижении рекорда скорости передачи данных по подводному оптоволоконному кабелю Marea. Он соединяет Вирджиния-Бич (Virginia Beach, США) и Бильбао (Bilbao, Испания). В рамках испытаний удалось добиться 1,3 Тбит/с на одной длине волны — это рекордное достижение для трансантлантических ВОЛС, сообщает Converge Digest.

Испытания с использованием когерентной оптики Ciena WaveLogic 6 Extreme (WL6e) позволили установить новый рекорд спектральной эффективности на уровне 7,0 бит/с/Гц. Технология WL6e с использованием 3-нм решений позволяет на 50 % снизить энергопотребление и занимаемое пространство на каждый передаваемый бит.

Испытания — отражение растущих потребностей бизнеса в высокопроизводительной кабельной инфраструктуре для обеспечения передачи трафика, связанного с ИИ, потоковым видео, облачными сервисами и интерконнектами между ЦОД (DCI).

 Источник изображения: Submarine Cable Map

Источник изображения: Submarine Cable Map

Компания Telxius управляет обширной волоконно-оптической экосистемой, включающей девять подводных кабелей нового поколения, более 100 тыс. км наземной инфраструктуры, 26 станций и ЦОД, а также 100 точек присутствия по всему миру.

Обновление гарантирует, что кабель Marea продолжит обеспечивать надежную и высокоскоростную связь для цифровых приложений и платформ новых поколений. В дальнейшем планируется более широкое внедрение новых технологий. В частности, в компании заявили, что намерены широко внедрять WL6e на ключевых участках своей глобальной подводной сети с 2025 года.

Постоянный URL: http://servernews.ru/1124992
25.06.2025 [13:34], Руслан Авдеев

SambaNova делает ставку на инференс и партнёрство с облачными провайдерами и госзаказчиками

Разработчик ИИ-ускорителей SambaNova Systems объявил о стратегическом изменении профиля деятельности. Теперь основное внимание будет уделено инференсу, а не обучению ИИ-моделей, сообщает EE Times со ссылкой на главу компании Родриго Ляна (Rodrigo Liang). Тот считает, что в ближайшие годы инференс станет ключевым направлением в ИИ-секторе.

Переосмысление стратегии привело к увольнению 77 сотрудников в апреле 2025 года. Компания всё ещё будет поддерживать обучение ИИ-моделей, но признаёт, что спрос на крупные кластеры для этих целей заметно снизился. Многие клиенты переходят на открытые модели, адаптируя и дообучая их — разработчики не желают создавать свои LLM с нуля. Поэтому теперь SambaNova будет предоставлять предприятиям и правительственным структурам инструменты для развёртывания открытых и доработанных моделей, в том числе «рассуждающих».

Основными клиентами компании сегодня являются крупные предприятия и «суверенные» государственные заказчики, заинтересованные в сокращении затрат. У госзаказчиков особые требования, в частности — независимость от США и других стран. Кроме того, они используют модели, обученные на локальных данных и ориентированные на специфику национальных экономик. Поскольку стойки компании потребляют всего по 10 кВт, позволить их себе могут даже страны со слабой энергетической инфраструктурой.

 Источник изображения: Magnet.me/unsplash.com

Источник изображения: Magnet.me/unsplash.com

Хотя у SambaNova есть собственная облачная инфраструктура с поддержкой открытых моделей, компания не намерена строить крупные кластеры для инференса. Вместо этого она организует партнёрство с облачными провайдерами, предоставляя им технологии для создания ИИ-облаков. Некоторыми партнёрами стали региональные облачные провайдеры, намеренные развернуть собственные ИИ-экосистемы. Платформа SambaNova Cloud играет роль демонстрационной площадки и не претендует на конкуренцию с другими провайдерами, являясь шаблоном, по образцу которого можно развёртывать аналогичные схемы «под ключ».

Технологии SambaNova позволяют запускать до 100 разных копий Llama-70B в одной стойке. Это отличный вариант для компаний, которым нужны разные варианты моделей для финансового, юридического и других отделов, для разных целей. По словам компании, у конкурентов для каждой версии модели требуется стойка на 140 кВт, в то время как SambaNova позволяет использовать стойки на 10 кВт для запуска множества моделей, причём переключение с одной на другую осуществляется «за миллисекунду». Это позволяет компаниям экономить значительные средства.

Осенью 2024 года SambaNova объявила о запуске самой быстрой на тот момент облачной платформы для ИИ-инференса. В этом она соревнуется с Cerebras и Groq, которые пытаются составить конкуренцию NVIDIA. Стоит отметить, что Groq также сменила бизнес-подход, отказавшись от продажи отдельных ускорителей в пользу оснащения целых ИИ ЦОД для инференса. Cerebras совместно с партнёрами создаёт крупные ИИ-суперкомпьютеры и кластеры. От обучения моделей она не отказывается.

Постоянный URL: http://servernews.ru/1124917
23.06.2025 [14:46], Владимир Мироненко

Broadcom представила VMware Cloud Foundation 9 — основу основ для современного частного облака

Broadcom объявила о выходе платформы VMware Cloud Foundation (VCF) 9.0, которая предоставляет клиентам согласованную операционную модель для частного облака, охватывающую ЦОД, периферию и управляемую облачную инфраструктуру. VCF 9.0 сочетает в себе гибкость и масштабируемость публичных облаков с безопасностью, производительностью, архитектурным контролем и низкой совокупной стоимостью владения (TCO) локальных сред.

VCF 9.0 является единой унифицированной платформой с поддержкой традиционных, современных и ИИ-приложений, говорит компания. Согласованные операции, управление и контроль в среде частного облака, а также возможность самообслуживания позволяет разработчикам сосредоточиться на своих приложениях, а не на инфраструктуре. Именно для этого при создании VCF 9.0 была выбрана совершенно новая архитектура.

VCF 9.0 получила унифицированный интерфейс для администраторов облака, обеспечивающий целостное представление о его работе. Новое приложение Quick Start значительно сокращает время и сложность настройки. Встроенные политики управления и предварительно настроенные шаблоны помогают поддерживать соответствие требованиям всем развёртываниям, сокращая ручные задачи и гарантируя повторяемость инфраструктуры. Разработчики получают доступ к автоматизированным и эластичным самообслуживаемым IaaS.

 Источник изображений: Broadcom

Источник изображений: Broadcom

Встроенная службы vSphere Kubernetes Service (VKS) позволяет одинаково работать как с виртуальными машинами (ВМ), так и с контейнерами. Унифицированный подход позволяет клиентам создавать, развёртывать и запускать контейнеризированные и виртуализированные рабочие нагрузки вместе, снижая потребность в сложных стеках DevOps и интеграциях.

VCF 9.0 предлагает явные преимущества в плане прогнозируемости и прозрачности затрат по сравнению с публичным облаком, позволяя организациям получить полное представление о совокупной стоимости владения и обеспечивая чёткую видимость рентабельности инвестиций в инфраструктуру, говорит Broadcom.

Ключевой особенностью VCF 9.0 является и новая панель управления SecOps, обеспечивающая консолидированное представление безопасности платформы и управления данными, включая интегрированные политики соответствия и нормативные ограничения для согласованного управления. VMware vDefend обеспечивает встроенное обнаружение и реагирование на угрозы, микросегментацию на уровне зон и приложений, сокращение поверхности атак и принудительное применение принципа нулевого доверия в VCF. vDefend расширяет возможности как администраторов инфраструктуры, так и владельцев VPC, оптимизирует миграцию и обеспечивает последовательное предотвращение угроз в многоэкземплярных развёртываниях VCF.

Обновления коснулись и подсистем хранения и сетей. Расширенное многоуровневое хранение для NVMe позволяет обеспечить снижение до 38 % совокупной стоимости владения, а VMware vSAN ESA с Global Dedupe позволяет на 34 % снизить совокупную стоимость владения хранилищем. Новая защита данных vSAN-to-vSAN с «глубокими» снапшотами обеспечивает более эффективное восстановление после сбоев или атак программ-вымогателей. VCF обеспечивает практически нулевую потерю производительности по сравнению с bare metal, поддерживая при этом vMotion без простоев для рабочих ИИ-нагрузок.

VMware Live Recovery обеспечивает унифицированное управление кибер- и аварийным восстановлением во всех развертываниях VCF с повышенным суверенитетом данных за счёт локальных изолированных сред восстановления. Поддерживает до 200 неизменяемых снапшотов на ВМ и обеспечивает более эффективное масштабирование за счёт возможности расширения хранилища независимо от вычислений с помощью кластеров хранения vSAN. Наконец, в VMware NSX обеспечен трёхкратный рост производительности коммутации

VMware Private AI Foundation с NVIDIA повышает кибербезопасность, позволяя развернуть облаки с поддержкой изоляции (air gap) и GPU-as-a-Service. В службе также появилась видимость профилей vGPU и новые инструменты мониторинга (v)GPU. А Model Runtime упрощает использование и масштабирование ИИ-моделей, в то время как Agent Builder Service обеспечивает более эффективное создание ИИ-агентов.

VMware Data Services Manager (DSM) предлагает поддержку PostgreSQL и MySQL с Microsoft SQL Server в Tech Preview. Интеграция с VCF Automation позволяет ИТ-отделам предоставлять DBaaS, а дополнительные усовершенствования повышают эффективность для управления большими парками баз данных.

Еще одним ключевым обновлением является интеграция балансировщика нагрузки VMware Avi с VMware Cloud Foundation (VCF) 9.0. Он обеспечивает единую облачную операционную модель для балансировки по всем рабочим нагрузкам, предлагает plug-and-play балансировку для ВМ и Kubernetes, а также единый API для администраторов и разработчиков инфраструктуры.

Постоянный URL: http://servernews.ru/1124791
21.06.2025 [23:32], Сергей Карасёв

Xsight Labs выпустила DPU E1 с 64 ядрами Arm Neoverse N2 и 40 линиями PCIe 5.0

Компания Xsight Labs объявила о доступности программно-определяемых «систем на чипе» (SoC) серии E1, предназначенных для создания DPU. Такие изделия могут применяться в облачных и периферийных дата-центрах, рассчитанных в том числе на ИИ-нагрузки.

О подготовке решений E1 сообщалось в конце прошлого года. Для чипа предусмотрены варианты E1-32 и E1-64, конфигурация которых включает соответственно 32 и 64 ядра Arm Neoverse N2. Младшая версия имеет 16 Мбайт кеша и использует конфигурацию памяти 2 × DDR5-5200, старшая — 32 Мбайт и 4 × DDR5-5200. Доступны 40 (32+8) линий PCIe 5.0. Сетевые порты могут иметь конфигурацию 2 × 400GbE, 4 × 200GbE и 8 × 100/50/25/10GbE.

 Источник изображений: Xsight Labs

Источник изображений: Xsight Labs

На базе E1 могут создаваться карты расширения различной конфигурации. Благодаря наличию 32 программируемых линий PCIe 5.0 и восьми двухрежимных контроллеров 16 линий могут быть выделены для хост-подключения, а другие 16 линий — для подключения внешних устройств. В качестве примера приводится конфигурация с двумя портами 400GbE или возможностью подсоединения четырёх SSD с интерфейсом PCIe 5.0 х4 каждый.

Кроме того, компания Xsight Labs представила 1U-систему E1-Server в форм-факторе на основе E1. Эта платформа подходит для решения таких задач, как CDN, веб-сервер, VPN, шлюз для защиты от DDoS-атак и пр. Устройство располагает четырьмя слотами для модулей памяти DDR5-5200 суммарным объёмом до 512 Гбайт и коннекторомв для SSD формата M.2. Возможна установка двух карт расширения типоразмера FHFL/FHHL/HHHL. Диапазон рабочих температур — от 0 до +35 °C.

Постоянный URL: http://servernews.ru/1124757