Материалы по тегу:
|
27.01.2026 [12:57], Сергей Карасёв
Встраиваемый модуль Innodisk EXEC-Q911 на чипе Qualcomm обладает ИИ-быстродействием до 200 TOPSКомпания Innodisk анонсировала встраиваемый модуль EXEC-Q911 и сопутствующую интерфейсную плату (комплект COM-HPC Mini Starter Kit) для решения ИИ-задач на периферии, в том числе в неблагоприятных условиях при температурах от -40 до +85 °C. В основу новинки положена аппаратная платформа Qualcomm. Задействован чип DragonWing IQ-9075 (QCS9075). Это изделие содержит восемь вычислительных ядер Kryo Gen 6 (Cortex-A78C) с тактовой частотой до 2,36 ГГц и четыре ядра реального времени Cortex-R52 с частотой до 1,85 ГГц. В состав процессора входит графический блок Adreno 663 с поддержкой Vulkan 1.2, OpenGL ES 3.2, OpenCL 2.0 FP, Adreno NN Direct. Встроенный модуль Adreno VPU 765 способен декодировать видео AV1/HEVC/H.265/H.264/VP9/MPEG-2 в формате вплоть до 8Kp60, а также кодировать материалы H.264/H.265/HEIF/HEIC до 4Kp60 (два потока). Интегрированный нейропроцессорный узел (NPU) обеспечивает ИИ-производительность до 200 TOPS на операциях INT8: заявлена поддержка фреймворков TensorFlow, PyTorch, ONNX, Paddle, Caffe, DarkNet и пр.
Источник изображения: Innodisk Изделие EXEC-Q911 несёт на борту 36 Гбай LPDDR5X, флеш-модули UFS 3.1 вместимостью 128 Гбайт, eMMC на 32 Гбайт и NOR Flash ёмкостью 32 Мбайт. Упомянута совместимость с Yocto Linux (Kernel 6.6) и Ubuntu 24.04 (Kernel 6.8). Интерфейсная плата располагает двумя разъёмами DisplayPort 1.2, двумя сетевыми портами 2.5GbE RJ45, тремя портами USB 3.1 Type-A, одним коннектором USB 3.1 Type-C и двумя портами USB 2.0 Type-A. Кроме того, есть 3,5-мм аудиогнездо (кодек WM8904), интерфейсы eDP, MIPI-CSI (два по 4 линии) и RS-232/RS-422/RS-485 (последовательный порт). Доступны слоты M.2 Key-M 2280 (PCIe 4.0 x4) для SSD, M.2 Key-B 3052 (USB 3.2 Gen2, USB 2.0) для модема 4G/5G и M.2 Key-E 2230 (PCIe 4.0 x2, USB 2.0) для адаптера Wi-Fi/Bluetooth. Питание в диапазоне 9–36 В подаётся через 2-контактный коннектор. Размеры составляют 146 × 102 × 56,99 мм (вместе с модулем COM-HPC), масса — 1,7 кг вместе с кулером, в состав которого входят радиатор и вентилятор.
27.01.2026 [12:53], Сергей Карасёв
Giga Computing представила ИИ-сервер на базе NVIDIA GB200 NVL4 с СЖОКомпания Giga Computing, подразделение Gigabyte Group, пополнила ассортимент серверов моделью XN24-VC0-LA61, ориентированной на ИИ-задачи и другие ресурсоёмкие нагрузки. Устройство выполнено в форм-факторе 2U на аппаратной платформе NVIDIA GB200 NVL4. В общей сложности задействованы четыре GPU поколения Blackwell со 186 Гбайт памяти HBM3E каждый (пропускная способность до 8 Тбайт/с) и два CPU Grace с 480 Гбайт памяти LPDDR5X (пропускная способность до 512 Гбайт/с). Применяется GPU — GPU интерконнект NVIDIA NVLink и CPU — GPU интерконнект NVIDIA NVLink-C2C. Реализована система прямого жидкостного охлаждения. Доступны четыре сетевых порта OSFP InfiniBand XDR на 800 Гбит/с или два порта Ethernet на 400 Гбит/с на базе NVIDIA ConnectX-8 SuperNIC. Кроме того, имеется порт 1GbE на основе Intel I210-AT и выделенный сетевой порт управления 1GbE. В оснащение входит контроллер ASPEED AST2600. Во фронтальной части расположены восемь посадочных мест для SFF-накопителей с интерфейсом PCIe 5.0 (NVMe) с жидкостным охлаждением. Опционально может быть установлен DPU NVIDIA BlueField-3. Есть внутренний разъём для SSD типоразмера M.2 2242/2260/2280/22110 с интерфейсом PCIe 5.0 x4, слот PCIe 5.0 х16 для карты FHHL с СЖО и ещё один разъём PCIe 5.0 х16 FHHL. Предусмотерны коннекторы USB 3.2 Gen1 Type-A, Micro-USB, Mini-DP и RJ45. Сервер имеет габариты 438 × 87 × 900 мм и массу 42,8 кг. За питание отвечают четыре блока мощностью 3200 Вт с сертификатом 80 PLUS Titanium. Диапазон рабочих температур простирается от +10 до +35 °C.
27.01.2026 [09:09], Руслан Авдеев
Сингапур потратит S$1 млрд на то, чтобы остаться в авангарде ИИ-прогрессаСингапур намерен потратить свыше S$1 млрд ($786 млн) на финансирование Национального плана исследований и разработок в области ИИ (NAIRD) для укрепления государственного потенциала в соответствующей сфере. По данным местного Министерства цифрового развития и информации (MDDI), финансирование будет осуществляться с 2025 по 2030 гг., сообщает Channel News Asia. Анонсированный главой MDDI Джозефин Тео (Josephine Teo) план призван поддержать укрепление амбиций страны в сфере ИИ в рамках обновлённой национальной стратегии National AI Strategy (NAIS) 2.0. В 2019 году появилась первая национальная стратегия Сингапура в сфере искусственного интеллекта, в рамках которой страна начала реализацию ИИ-проектов в области образования, здравоохранения, логистики, безопасности и др. NAIS 2.0 анонсировали в 2023 году, тогда ставилась цель более чем втрое нарастить количество специалистов в сфере ИИ (до 15 тыс. человек) и помочь Сингапуру стать лучшим регионом для ИИ-разработчиков. Нынешние инвестиции в объёме S$1 млрд — часть общих вложений Национального исследовательского фонда (NRF) Сингапура в объёме S$37 млрд в технологическое развитие страны, объявленных в декабре 2025 года. S$28 млрд на те же цели выделили годом ранее. План NAIRD предусматривает приоритетное развитие трёх направлений: фундаментальных исследований в сфере ИИ, прикладных исследований в той же области, а также поиск талантов для реализации национальной ИИ-стратегии. Для этого Сингапур построит центры исследований в сфере ИИ, в которых будут работать не только местные, но и зарубежные специалисты. По словам Тео, центры будут работать над решением долгосрочных, сложных задач. В частности, речь идёт об исследованиях и разработках в областях защиты от рисков, связанных с внедрением ИИ, и защитой от злоупотреблений такими системами. Центры будут работать и над широким кругом других смежных проблем, например, над разработкой многоцелевого искусственного интеллекта, способного решать задачи в разных сферах. В прикладной сфере новый план предусматривает укрепление потенциала для поддержки внедрения ИИ в промышленности, а также поддержку инициатив, выдвинутых исследовательскими, инновационными и корпоративными структурами. По словам властей, новый план также ориентирован на обучение «двуязычных» исследователей, владеющих и навыками в сфере ИИ, и одновременно являющихся экспертами в какой-либо области. Также Сингапур намерен создать условия для перехода от теории к практике, превращения исследования в прикладные продукты. Планируется и дальше поддерживать инициативы, направленные на поддержку интереса к ИИ-исследованиям среди молодёжи. На уровне высшего образования студентам предоставят возможность взаимодействия с ведущими научно-исследовательскими учреждениями локально и за рубежом, с расширением стипендиальных программ. Создаются и условия для поддержки преподавателей, в т.ч. речь идёт о программе приглашенных профессоров AI Visiting Professorship для обеспечения сотрудничества между местными и международными исследователями. Параллельно привлекаются и ведущие стартапы и ИИ-компании для размещения своих исследовательских команд в Сингапуре. В MDDI заявляют, что исследования в области ИИ позволят Сингапуру оставаться в авангарде в данной сфере. В 2025 году Сингапур занимал третье место в глобальном рейтинге ИИ-исследований издания The Observer, с ранжированием стран по уровню инвестиций, инноваций и внедрения ИИ. Страна уступает только США и Китаю. В последнее время в Сингапуре всё больше компаний, открывших собственные исследовательские лаборатории, включая Microsoft Research Asia и Google DeepMind. Одна из главных проблем Сингапура — острая нехватка свободной энергии и земли для ИИ ЦОД. Поэтому конкуренты не дремлют, и соседняя Малайзия уже недвусмысленно выражала желание стать главным IT-хабом региона. Собственные амбиции того же рода в регионе имеют Индонезия и Вьетнам. Попутно Сингапур всё чаще подозревают в помощи китайским компаниям в обходе санкций США.
27.01.2026 [01:23], Владимир Мироненко
Microsoft представила ИИ-ускоритель Maia 200 с 216 Гбайт HBM3eMicrosoft представила 3-нм ИИ-ускоритель Maia 200 для инференса с собственными тензорными ядрами с поддержкой форматов FP8/FP4, переработанной подсистемой памяти с 216 Гбайт HBM3e (7 Тбайт/с), 272 Мбайт SRAM, DMA-движком, оптимизированной NOC, а также «механизмами перемещения данных, обеспечивающими быструю и эффективную работу масштабных моделей». Maia 200 содержит более 140 млрд транзисторов. FP4-производительность составляет более 10 Пфлопс что в три раза выше, чем у Amazon Trainium3, но почти вдвое меньше, чем у NVIDIA Blackwell, и более 5 Пфлопс в FP8-вычислениях, чуть превосходя по производительности Google TPU v7 Ironwood и опять-таки примерно вдвое уступая Blackwell. При этом TDP составляет 750 Вт, а для охлаждения используются СЖО и фирменные теплообменники второго поколения. На системном уровне Maia 200 использует всего лишь двухуровневую унифицированную сетевую фабрику, построенную на стандартном Ethernet. Специальный транспортный уровень Maia AI, который используется и для вертикального, и для горизонтального масштабирования, и тесно интегрированный сетевой адаптер обеспечивают производительность, высокую надёжность и преимущества по стоимости без использования проприетарных интерконнектов. Каждый акселератор получил выделенный интерфейс с пропускной способностью 2,8-Тбайт/с (в дуплексе). Обещаны предсказуемые, высокопроизводительные коллективные операции в кластерах, объединяющих до 6144 ускорителей. Внутри каждого узла есть четыре ускорителя Maia 200, которые общаются друг с другом напрямую, т.е. без использования коммутатора. «Maia 200 также является самой эффективной системой для выполнения задач ИИ, когда-либо развёрнутой Microsoft, обеспечивая на 30 % лучшую производительность на доллар, чем новейшее оборудование в нашем парке», — сообщила компания. Maia 200 уже используется в регионе US Central недалеко от Де-Мойна (Des Moines, шт. Айова), а в дальнейшем планируется развёртывание новых ускорителей в регионе US West 3, недалеко от Финикса (Phoenix, шт. Аризона). Компания также представила предварительную версию SDK Maia с полным набором инструментов для создания и оптимизации LLM для Maia 200. Он включает в себя полный набор возможностей, в том числе интеграцию с PyTorch, компилятор Triton и оптимизированную kernel-библиотеку, а также доступ к низкоуровневому программированию Maia. Microsoft сообщила, что Maia 200 будет использоваться в рамках её гетерогенной ИИ-инфраструктуры для работы с различными моделями, включая GPT-5.2 от OpenAI, обеспечивая преимущества в соотношении производительности и затрат для Microsoft Foundry и Microsoft 365 Copilot. Команда Microsoft Superintelligence будет использовать Maia 200 для генерации синтетических данных и обучения с подкреплением для улучшения собственных моделей следующего поколения. В сценариях использования конвейера синтетических данных использование Maia 200 позволит ускорить процесс генерации и фильтрации высококачественных данных, специфичных для конкретной предметной области.
26.01.2026 [21:48], Владимир Мироненко
NVIDIA инвестировала в CoreWeave ещё $2 млрд, чтобы та побыстрее построила ИИ ЦОД на 5 ГВтNVIDIA и CoreWeave объявили о расширении партнёрских отношений, что позволит CoreWeave ускорить создание более чем 5 ГВт мощностей ИИ ЦОД к 2030 году. NVIDIA также инвестировала $2 млрд в обыкновенные акции класса А CoreWeave по цене $87,20/шт. Как сообщается в пресс-релизе, «инвестиции отражают уверенность NVIDIA в бизнесе, команде и стратегии роста CoreWeave как облачной платформы, построенной на инфраструктуре NVIDIA». Акции CoreWeave выросли на 14 % в ходе утренних торгов и на 30 % с начала года, несмотря на продолжающиеся операционные убытки, отметил ресурс Investing. Компании сообщили, что с целью удовлетворения продолжающегося роста спроса на ИИ и потребности в вычислительных ресурсах они углубляют согласование своей инфраструктуры, ПО и платформ. Компании намерены:
Несмотря на то, что гендиректор NVIDIA Дженсен Хуанг (Jensen Huang) категорически не согласен с концепцией циклического финансирования, новые инвестиции вряд ли полностью развеют критику, отметил Investing. Многие аналитики по-прежнему рассматривают эти соглашения как косвенную поддержку NVIDIA спроса на собственные чипы. Глава CoreWeave Майкл Интратор (Michael Intrator) ранее назвал обвинения в циклическом финансировании «нелепыми», отметив, что общая доля NVIDIA остаётся относительно небольшой по сравнению с общим объёмом привлечённого CoreWeave капитала, превышающим $25 млрд.
Источник изображения: NVIDIA CoreWeave продолжает осуществлять диверсификацию своей клиентской базы. В ходе последнего квартального отчёта компания сообщила, что вклад крупнейшего заказчика в общую выручку не превышает 35 %. Для сравнения, в 2024-м году около 62 % от суммарной выручки CoreWeave приходилось на Microsoft. Вторым по величине заказчиком была NVIDIA (15 %), которая обязалась выкупить у CoreWeave все нераспроданные ИИ-мощности. У Microsoft имеются контракты с несколькими неооблаками на общую сумму более $60 млрд. Если ранее Microsoft скупала мощности в интересах OpenAI, то теперь OpenAI скупает мощности у CoreWeave напрямую, общая сумма контрактов достигла $22,4 млрд. Кроме того, в рамках партнёрского соглашения с IBM компания CoreWeave обязалась поставить ей один из своих первых ИИ-суперкомпьютеров на базе NVIDIA GB200 NVL72. В числе клиентов CoreWeave также Meta✴, заключившая с ней контракт на $14,2 млрд. Впрочем, для снижения рисков, связанных с крупными заимствованиями для развёртывания ИИ-инфраструктуры IT-гиганты проводят сделки по обеспечению своих проектов через компании специального назначения — SPV (special-purpose vehicle), финансируемые большей частью инвесторами с Уолл-стрит. Чтобы обеспечить выполнение обязательств по развёртыванию ИИ-инфраструктуры в рамках обязательств по контрактам с ИИ-компаниями, CoreWeave прибегает к заимствованиям. В частности, для развёртывания облачной инфраструктуры в рамках долгосрочного соглашения с OpenAI компания договорилась об отложенном кредите (DDTL 3.0) на сумму $2,6 млрд.
26.01.2026 [19:41], Руслан Авдеев
Инвесторы Fermi America подали к компании коллективный искКомпания Fermi America, стоящая за проектом мегакампуса ИИ ЦОД HyperGrid (Project Matador) площадью 167 га и мощностью 11 ГВт в Амарилло (Amarillo, Техас), вероятно, скоро предстанет перед судом. Юридическая компания Berger Montague PC подала против неё коллективный иск от имени инвесторов, купивших ценные бумаги компании с 1 октября по 11 декабря 2025 года, в том числе в ходе IPO, сообщает Datacenter Dynamics. Согласно материалам иска, жалобы возникли после того, как первый арендатор будущего ЦОД Fermi отказался от сделки — его участие могло бы финансово поддержать строительство кампуса. В сентябре Fermi заявляла, что подписала не имеющее обязательной силы письмо о намерениях (LOI) с неназванным «арендатором инвестиционного уровня», который и должен был стать первым клиентом. По оценкам экспертов, стоимость сделки составила $150 млн. В январе 2026 года оговоренный в письме срок «эксклюзивности» возможной сделки истёк, а потенциальный арендатор расторг соглашение, хотя переговоры о возможной аренде мощностей ЦОД с ним продолжаются. Fermi последовательно отрицала, что этим загадочным арендатором была Amazon (AWS), хотя неофициально глава Fermi упоминал именно последнюю. Среди других потенциальных клиентов также называлась Palantir, имеющая тесные связи с госсектором США. Несмотря на то, что компания не имеет ни одного дата-центра в управлении и очень мало опыта в секторе ЦОД вообще, она привлекла $682 млн в ходе IPO в октябре прошлого года, рыночная оценка бизнеса составила $15 млрд. После новости о расторжении соглашения акции Fermi стали практически вдвое дешевле, чем во время IPO. В связи со срывом сделки американская юридическая компания Robbins Geller Rudman & Dowd начала расследовать вероятные нарушения Fermi американских законов. Одним из основателей Fermi выступает бывший губернатор Техаса и министр энергетики США Рик Перри (Rick Perry). Компания планировала построить кампус близ Амарилло на земле, входящей в экосистему Техасского технологического университета. Если проект будет реализован, площадь объектов составит фантастические 1,67 млн м2, для электроснабжения будет использоваться комбинация локальных энергоресурсов, включая газовые турбины, солнечные и ветряные элементы и даже атомные реакторы. Первые два этапа Project Matador мощностью 1,1 ГВт, предположительно, обойдутся в $2 млрд.
26.01.2026 [14:04], Сергей Карасёв
Расходы на аренду GPU-серверов в России достигли 17 млрд руб.В 2025 году объём российского рынка аренды выделенных GPU-серверов (bare-metal) составил приблизительно 17 млрд руб. В 2026-м ожидается двукратный рост с итоговым результатом на уровне 34 млрд руб. Такую оценку, как сообщает газета «Коммерсантъ», приводит отечественный облачный провайдер и поставщик комплексной IT-инфраструктуры «Рег.облако». Отмечается, что около 60 % спроса в сегменте аренды GPU-серверов в РФ приходится на задачи ИИ и машинного обучения. Ещё 30 % выручки обеспечивают сервисы VDI, оставшиеся 10 % — нагрузки, связанные с рендерингом. Спрос на аренду GPU-серверов устойчиво растёт, поскольку такая модель позволяет выполнять НРС-задачи без необходимости формирования собственной дорогостоящей инфраструктуры. Кроме того, компании могут наращивать или сокращать вычислительные мощности в зависимости от меняющихся потребностей, оплачивая только фактически используемые ресурсы. По данным «Рег.Облака», стоимость аренды GPU-систем начинается примерно с 51 тыс. руб. и может превышать 1,5 млн руб. в месяц за сервер (в зависимости от конфигурации). Около половины от суммарной выручки провайдеров обеспечивают клиенты из сферы IT. Приблизительно 17 % поступлений приходится на заказчиков в сегменте торговли, 11 % — на организации из сферы услуг. Представитель ITPOD подчёркивает, что ИИ-технологии в реальном бизнесе в России пока развиваются через пилотные проекты и тесты гипотез. А поэтому аренда GPU-серверов является наиболее рациональным решением, поскольку избавляет от капитальных затрат и позволяет прогнозировать расходы. Представитель «СКБ Контур» добавляет, что в аренде GPU-ресурсов заинтересованы средние и крупные компании, у которых нет собственной ИИ-инфраструктуры. Вместе с тем, по оценкам MWS Cloud, суммарный объём рынка решений на базе GPU для локального развёртывания (on-premises) с учётом аренды и приобретения оборудования в собственность в 2025 году вырос на четверть, превысив 112 млрд руб.
26.01.2026 [13:21], Сергей Карасёв
MSI представила PRO DP10 A14MG, «малолитражный» бизнес-ПК на базе Intel Raptor LakeКомпания MSI анонсировала компьютер небольшого форм-фактора PRO DP10 A14MG, предназначенный для использования в бизнес-сфере и коммерческом секторе. Устройство, выполненное на аппаратной платформе Intel, заключено в корпус объёмом всего 1,1 л. Максимальная конфигурация включает процессор Core i7 14700 поколения Raptor Lake с 20 ядрами (8Р+12Е/28С) с максимальной тактовой частотой 5,4 ГГц в турбо-режиме. В состав чипа входит графический ускоритель Intel UHD Graphics 770 с частотой до 1,6 ГГц. Применена материнская плата на наборе логики Intel H610. Объём оперативной памяти DDR5-5600 достигает 64 Гбайт в виде двух модулей SO-DIMM. Компьютер несёт на борту SSD типоразмера M.2 2280 с интерфейсом PCIe 3.0 x4 (NVMe). В оснащение в зависимости от модификации входит адаптер Intel Wi-Fi 6E AX211, AzureWave AW-CB515NF Wi-Fi 5 или Intel Wi-Fi 7 BE200 с поддержкой соответственно Bluetooth 5.3, Bluetooth 5.0 и Bluetooth 5.4. Есть сетевой контроллер Intel I226V стандарта 2.5GbE, монофонический динамик мощностью 1 Вт и модуль dTPM 2.0.
Источник изображения: MSI На фронтальной панели расположены два порта USB 3.0 Type-A (5 Гбит/с), по одному порту USB Type-C (10 Гбит/с) и USB Type-A (10 Гбит/с), комбинированное аудиогнездо на 3,5 мм. Сзади сосредоточены четыре порта USB 2.0, гнездо RJ45 для сетевого кабеля, а также интерфейсы HDMI 2.1 и DisplayPort 1.4b с поддержкой видео 4K@60. Кроме того, предусмотрен конфигурируемый разъём со стандартным исполнением HDMI+LAN(2.5GbE) и опциями HDMI+COM, DP+LAN(2.5GbE), DP+COM, VGA+LAN(2.5GbE), VGA+COM. Габариты новинки составляют 34,48 × 178,82 × 179 мм, масса — 1,22 кг. Используется блок питания мощностью 120 Вт. Возможен монтаж посредством крепления VESA. Заявлена совместимость с Windows 11.
26.01.2026 [13:20], Сергей Карасёв
Индустриальный компьютер AAEON MEX-BTS допускает установку GPU формата MXMКомпания AAEON анонсировала компьютер небольшого форм-фактора MEX-BTS, который может применяться в качестве индустриальной рабочей станции, платформы визуализации с поддержкой ИИ, системы мониторинга безопасности и пр. Особенностью новинки является возможность установки GPU-ускорителя формата MXM 3.1 Type-A или Type-B. Устройство выполнено в корпусе с габаритами 295 × 186 × 50 мм. В зависимости от модификации используется материнская плата на наборе логики Intel R680E, Intel Q670E или Intel H610E. Поддерживаются процессоры Intel Core 12-го, 13-го и 14-го поколений, а также Intel Core Series 2 (Bartlett Lake) с показателем TDP до 65 Вт. Доступны два слота для модулей оперативной памяти DDR5-5200 SO-DIMM суммарным объёмом до 64 Гбайт. В оснащение входят два разъёма M.2 2280 M-Key (PCIe 4.0 x4 и PCIe 3.0 x4) для SSD, коннектор M.2 3052 B-Key (PCIe 3.0 x2, USB 3.2, USB 2.0) и разъём Mini Card (PCIe 3.0 x1 и USB 2.0) для модулей беспроводной связи. Могут быть реализованы до шести сетевых Ethernet-портов: два 2.5GbE на основе контроллера Intel I226-LM, три 2.5GbE на базе Intel I226-V и один 1GbE на основе Intel I219-LM (во всех случаях применяются гнёзда RJ45). Есть звуковой кодек Realtek ALC897. Изображение может выводиться одновременно на несколько мониторов через интерфейс HDMI 2.0 на основной плате (3840 × 2160 пикселей, 60 Гц) и два коннектора DP++ 1.4 на модуле MXM (3840 × 2160 точек). Во фронтальной части расположены два порта USB 2.0, две колодки GPIO и набор аудиогнёзд. Сзади находятся четыре разъёма USB 3.2 Gen2 и четыре последовательных порта (по два RS-232/422/485 и RS-232), гнёзда RJ45 и 4-контактный коннектор Phoenix для подачи питания. Опционально может быть реализован внутренний порт SATA-3 для подсоединения накопителя. Диапазон рабочих температур простирается от 0 до +50 °C. Заявлена совместимость с Windows 10, Windows 11 и Ubuntu 24.04 Kernel 6.11. За безопасность отвечает модуль TPM 2.0.
26.01.2026 [11:37], Руслан Авдеев
Просчитались: Broadcom продаст госслужбам США ПО VMware со скидкой до 64 %, но vSphere это не касаетсяУправление общих служб США (GSA) о закупке в рамках соглашения OneGov Agreement продуктов VMware (Broadcom) со скидкой до 64 %. Нюанс в том, что собственно гипервизор vSphere в соглашение не включили, сообщает The Register. Скидка распространяется на VMware Tanzu Platform, Tanzu Data Intelligence, Avi Load Balancer, vDefend и Tanzu AI Starter Kit, тогда как ключевая платформа виртуализации vSphere Foundation, используемая большинством государственных ведомств США, в списке отсутствует. При этом в администрации президента США подчеркнули, что новый договор — важная веха в рамках инициативы OneGov, координирующей спрос государственных ведомств на ПО и услуги, а само соглашение «со скидкой» способствует внедрению ИИ в госструктурах. Скидки для GSA будут действовать до мая 2027 года, поэтому у IT-команд государственных ведомств осталось не очень много времени на принятие решений о закупке или отказе от решений Broadcom в базовой инфраструктуре. Broadcom позиционирует сделку как возможность помочь государственным ведомствам получить больше результатов от инвестиций в её платформу частного облака и достичь модели «нулевого доверия» с использованием многоуровневой защиты. Защищать действительно есть что. Так, ещё в 2024 году американские военные и другие государственные ведомства подписали соглашения о получении лицензий VMware на $477 млн. Отдельный контракт на $173 млн подписан ВМС США. В 2025 году агентство DISA (Агентство информационных систем) в составе Пентагона подписало контракт почти на $1 млрд через посредника Carahsoft.
Источник изображения: Icons8 Team/unsplash.com Стоит отметить, что поглощение VMware компанией Broadcom до сих пор вызывает недовольство многих клиентов. Дело в изменении условий лицензирования и самой продуктовой линейки, из-за которой многие организации вовсе отказываются от взаимодействия с VMware вовсе. Так, британский ретейлер Tesco подал на Broadcom её реселлера Computacenter в суд, обвинив их в нарушении условий контракта, а Computacenter сама выступила с иском к Broadcom и Dell. Недовольны изменениями и гиганты уровня Samsung, Siemens, Telefónica и др. Впрочем, Broadcom не собирается отступать от действующей стратегии, рассчитанной на крупных клиентов и радикальное изменение бизнес-моделей. Не так давно компания просто изъяла пакет VMware vSphere Foundation с некоторых рынков региона EMEA. Эксперты полагают, что это может нанести значимый ущерб многим небольшим клиентам. С прошлой осени приобретение лицензий VMware осуществляется напрямую у Broadcom, купившую VMware почти за $70 млрд. В России VMware больше не работает, но её продукты всё ещё популярны. |
|
