Материалы по тегу:
|
14.01.2026 [17:14], Руслан Авдеев
Евросоюз делает ставку open source, чтобы избавиться от зависимости от IT-гигантов из США
open source
software
евросоюз
импортозамещение
информационная безопасность
конфиденциальность
разработка
сша
Еврокомиссия начала новый раунд консультаций, связанный с открытым ПО, которое, как предполагается, это поможет местным разработчикам снизить зависимость от платформ американских IT-гигантов и перейти к созданию собственных open source альтернатив, сообщает The Register. В документе Call for Evidence Брюссель заявляет, что привычка ЕС полагаться на «неевропейских» (фактически американских) техногигантов стала «стратегической обузой», ограничивающей выбор, ослабляющей возможность конкурировать и создающей риски в цепочках поставок во всех сферах, от облачных сервисов до критической инфраструктуры. Консультации, которые продлятся до 3 февраля — первые шаги в рамках разработки официальной стратегии формирования «европейских открытых цифровых экосистем» (European Open Digital Ecosystems), благодаря которым open source будет рассматриваться как ключевой элемент инфраструктуры, а не просто дополнение, которое «неплохо было бы иметь». По данным Еврокомиссии, зависимость от зарубежных вендоров усложняет для Евросоюза контроль собственного цифрового стека, потенциально угрожает безопасности и надёжности в важных секторах. Open source даёт возможность избавиться от зависимости и лежит в основе обширного портфолио высококачественных и безопасных цифровых решений, которые можно использовать как жизнеспособные альтернативы проприетарным платформам.
Источник изображения: Shahadat Rahman/unsplash.com Как заявляют в Еврокомиссии, сильный и развитый сектор open source может внести эффективный вклад в инновации Евросоюза и ускорить стандартизацию, усиливая конкурентоспособность объединения для сохранения его суверенитета. Кроме того, это обеспечит экономическое процветание, надёжность и будет способствовать распространению влияния во всём мире. Отдельные техноэнтузиасты, стартапы, малые и средние бизнесы вносят значительный вклад, выводя продукты open source на рынок. По расчётам самой Еврокомиссии, 70–90 % современного ПО полагается на open source компоненты, т.е. фактически ПО с открытым исходными кодом лежит в основе цифровой экономики всего мира. В Брюсселе считают, что ЕС вносит в этот процесс значительный вклад, хотя коммерческую и стратегическую выгоду нередко в итоге получают крупные технологические компании, расположенные в других регионах. Для того, чтобы избежать этого, Еврокомиссия намерена обозначить новый подход к open source и пересмотреть свою стратегию, в основном сконцентрированную на том, как структуры ЕС используют и обмениваются кодом в рамках объединения. Теперь Евросоюз намерен обращаться с open source как с экономическим и политическим активом, напрямую связанным с суверенитетом, конкурентоспособностью и кибербезопасностью. Во многом вопрос касается решений, связанных с облачными и ИИ-сервисами, безопасностью, открытой аппаратной составляющей и промышленным ПО, в том числе приложений для автомобилей и др. На этот раз Еврокомиссия будет акцентировать внимание на масштабировании и внедрении такого ПО вместо очередных экспериментальных проектов.
Источник изображения: James Harrison/unsplash.com В Брюсселе признают, что только финансовые вливания не способны обеспечить решение проблемы. ЕС поддерживал программные проекты самой разной направленности, но лишь единицы из них смогли пережить стадию грантов и выжить на рынке. Теперь заявляется, что для масштабирования проекта недостаточно поддержки open source только с помощью программ поддержки исследований и инноваций. Критически важно поддерживать развивающиеся сообщества разработчиков и бизнесов в их намерениях масштабировать проекты. Комиссия изложила возможные меры, включая стимулы для публичных и частных пользователей для участия в развитии базовых проектов, поддержку бизнесов ЕС в сфере open source и помощь стартапам, рискующим не преуспеть в период роста. Также открытый код представлен как инструмент оптимизации прозрачности цепочек поставок и упрощения поиска уязвимостей. При этом ПО с открытым кодом тесно связано с могущественными технологическими платформами, поскольку американские техногиганты активно монетизируют общедоступный мировой код. Даже принадлежащая с некоторых пор Microsoft платформа GitHub предупредила, что устойчивость инфраструктуры open source под вопросом — с таким же мнением осенью выступали крупные открытые проекты в рамках Open Source Security Foundation (OpenSSF).
14.01.2026 [16:27], Руслан Авдеев
США являются лидерами в сфере развития ЦОД, но темпы роста отрасли в Китае остаются загадкойНа сегодняшний день в мире реализуются проекты 1947 новых дата-центров — более 20 % от числа действующих сегодня (9019 шт.). Учитываются как уже строящиеся или анонсированные объекты, так и те, для которых пока куплена только земля. Более половины новых проектов реализуется в США, но есть и сильный конкурент, данные о котором неполны, сообщает IEEE Spectrum. Если бы появились полные данные, роль США на рынке ЦОД, вероятно, оказалась бы ещё важнее. По словам эксперта Electric Power Research Institute (EPRI) Тома Уилсона (Tom Wilson), из-за доступности земли и специализации на HPC-сервисах средние размеры и энергопотребление ЦОД в США значительно выше, чем в других странах. Среди ключевых застройщиков называются AWS, Microsoft, Stack Infrastructure, Google и CloudHQ. При этом надо отметить, что гиперскейлеры не только строят собственные дата-центры, но и арендуют их. Тем не менее, по словам Уилсона, имеющаяся статистика, предоставленная Data Center Map, может недостаточно полно учитывать новые китайские дата-центры, поскольку зачастую никто не объявляет о них публично. Но даже если бы данные о китайских дата-центрах были актуальными, Уилсон считает, что США всё равно считались бы лидерами, а за ними, с некоторым отставанием, всё равно шёл бы Китай. Уилсона беспокоит способность электросетей США удовлетворить спрос новых дата-центров на энергию. Спрос оставался неизменным буквально в течение двадцати последних лет, а теперь индустрия ЦОД в США требует энергии в огромных объёмах. По словам эксперта, решение проблемы с энергоснабжением может заключаться в договорённости с операторами ЦОД, чтобы те потребляли энергию более «гибко». Например, речь может идти о проведении сложных вычислений вне пиковых нагрузок на энергосети или об использовании на площадках ЦОД энергохранилищ, что отчасти снизит нагрузку на энергосети. Будет ли таких мер достаточно для удовлетворения спроса — остаётся открытым пока вопросом. Известно другое. В декабре 2025 года экоактивисты более 230 организаций призвали США немедленно остановить строительство всех ИИ ЦОД, поскольку ИИ-бум представляет большую экологическую и общественную угрозу. Более того, в США начали расследование влияния ИИ ЦОД на рост тарифов на электроэнергию. Всего, по оценкам Omdia, капитальные затраты на ЦОД в мире превысят в 2025 году $657 млрд, расходы гиперскейлеров на дата-центры уже превысили ВВП целых стран.
14.01.2026 [15:39], Руслан Авдеев
США разрешили экспорт NVIDIA H200 в Китай, а Китай импорт H200 не разрешилСША официально разрешили поставки чипов NVIDIA H200 китайским клиентам несмотря на неодобрение некоторых политиков. Впрочем, как оказалось, в Китае эти ускорители не очень ждут, сообщает Reuters. Параллельно США прикрыли лазейку в законах, позволявшую КНР пользоваться передовыми ИИ-чипами в зарубежных ЦОД и облаках. Согласно новым американским правилам, продаваемые в КНР чипы должны перед поставками проверяться независимыми лабораториями для подтверждения их технических характеристик. При этом в Поднебесную запрещено продавать более 50 % от общего объёма чипов, продаваемых американским клиентам. NVIDIA придётся доказать, что в США достаточно ускорителей H200, а китайские клиенты должны пройти «необходимые процедуры безопасности» и не должны использовать полупроводники в военных целях. Ранее об этих условиях не сообщалось. В NVIDIA подчёркивают, что критики новых правил непреднамеренно продвигают интересы конкурентов компании, находящихся в американском «чёрном списке». В декабре было объявлено о возможности продавать чипы NVIDIA H200 в КНР с условием уплаты в американский бюджет пошлины в объёме 25 % от их стоимости. Китайским технологическим компаниям нужно порядка 2 млн H200, причём каждый из ускорителей стоит около $27 тыс. Это превышает запасы NVIDIA, на складах которой имеется не более 700 тыс. таких чипов. Глава NVIDIA Дженсен Хуанг (Jensen Huang) заявил, что компания нарастит производство H200. По словам Reuters, пожелавшие остаться анонимными сотрудники китайской таможни заявили, что ввоз чипов NVIDIA H200 в Китай пока не разрешён. Также, по некоторым данным, китайские власти пригласили представителей местных технологических компаний на встречу, в ходе которой недвусмысленно указали не покупать H200 без крайней необходимости. Фактически, по данным источников СЧМИ, речь идёт о временном запрете закупок, который может стать постоянным. H200 в последнее время находится в центре обсуждений американо-китайских отношений. Хотя спрос со стороны китайского бизнеса велик, есть вероятность, что Пекин вовсе запретит ввоз таких чипов, чтобы местные разработчики ИИ-чипов могли развивать собственные проекты. Также возможно, что вопросы, касающиеся поставок H200, станут предметом торга с Вашингтоном. Пока нет данных, касается ли запрет уже сделанных заказов, или только новых. Желая замедлить развитие Китая в сфере ИИ и технологий в целом, США с 2022 года ввела ограничения на экспорт в КНР передовых полупроводников. В 2025 году США сначала запретили, а позже разрешили экспорт ускорителей H20, но поставки с августа фактически заблокировал сам Китай. Дженсен Хуанг заявлял, что доля NVIDIA на рынке ИИ-чипов КНР уменьшилась до нуля. H200 приблизительно в шесть раз производительнее H20 и отказаться от такого предложения полностью КНР будет весьма затруднительно, особенно с учётом того, что собственные чипы китайской разработки далеко не столь производительны.
14.01.2026 [15:06], Андрей Крупин
К2Тех: 59 % запросов на поддержку зарубежного оборудования в РФ приходится на решения HPE, IBM/Lenovo и DellСистемный интегратор К2Тех изучил структуру спроса на техническую поддержку зарубежного вычислительного оборудования (серверов, систем хранения и резервного копирования данных, коммутаторов SAN, ленточных библиотек) среди российских заказчиков в 2025 году. Исследование тендерных запросов и статистики обращений к складу запчастей компании показало, что аппаратные решения иностранных вендоров HPE, IBM/Lenovo и Dell продолжают активно эксплуатироваться в IT-инфраструктуре отечественных организаций. Согласно представленным К2Тех данным, на оборудование HPE приходится наибольшая доля запросов на сервисное обслуживание — в среднем 26 % рынка. Следом идёт Dell с долей в 19 %, а третье место занимает IBM/Lenovo с показателем 14 %. Таким образом, эта тройка лидеров суммарно формирует 59 % всех запросов. Оставшиеся 41 % рынка распределены между множеством других вендоров, что наглядно демонстрирует высокую фрагментацию сегмента.
Совокупное распределение заявок на ремонт зарубежного оборудования по вендорам на основе агрегированных данных анализа запасных частей и тендерных площадок (источник данных: К2Тех) Также аналитики отследили, как меняется от года к году спрос на обслуживание вычислительной инфраструктуры. Тренды оказались разнонаправленными. Так, доля HPE сохраняет стабильность и даже показывает небольшой рост в 2025 году — с 25 % до 26 %. Самый заметный прогресс у Dell: доля увеличилась с 16 % до 19 %. При этом у IBM/Lenovo зафиксировано снижение — с 16 % до 14 %. В итоге, несмотря на внутренние перераспределения, совокупная доля тройки лидеров в сегменте западного оборудования остаётся неизменной. «В сегменте вычислительной инфраструктуры изменения происходят медленно. Это во многом объясняется длительным жизненным циклом серверного оборудования. Например, серверные решения Dell, включая линейку Dell EMC, сохраняют стабильное присутствие на рынке, поскольку были массово внедрены в IT-инфраструктуру отечественных организаций ещё до 2022 года, а в ряде случаев и сейчас продолжают в некоторых объёмах», — говорится в исследовании К2Тех, с полной версией которого можно ознакомиться на сайте системного интегратора.
14.01.2026 [14:16], Сергей Карасёв
Broadcom представила чипы для точек доступа Wi-Fi 8Компания Broadcom анонсировала чипы нового поколения, предназначенные для создания точек доступа стандарта Wi-Fi 8. Дебютировали двухдиапазонные (2,4/5 ГГц) модули BCM6714 и BCM6719, а также процессор BCM4918 APU (Accelerated Processing Unit). Изделия BCM6714 и BCM6719 выполнены на основе трёхдиапазонного чипа Broadcom BCM6718 Wi-Fi 8, однако в отличие от последнего не поддерживают работу в полосе 6 ГГц. Новинки получили различные функции оптимизации энергопотребления. Предусмотрен встроенный усилитель мощности для диапазона 2,4 ГГц. Чипы имеют разную конфигурацию антенн: 4 × 4 для 2,4 ГГц и 4 × 4 для 5 ГГц у BCM6719 и 3 × 3 для 2,4 ГГц и 4 × 4 для 5 ГГц у BCM6714. В обоих случаях реализован аппаратный телеметрический движок, который в режиме реального времени собирает информацию о состоянии сети: эти данные затем могут быть использованы ИИ-моделью на периферии для повышения качества обслуживания, улучшения безопасности и снижения эксплуатационных расходов. В свою очередь, процессор BCM4918 APU объединяет четыре ядра с архитектурой Armv8 для задач общего назначения и движок Broadcom Neural Engine (BNE), предназначенный для ускорения операций, связанных с ИИ и машинным обучением. Реализованы два интерфейса USB и четыре контроллера PCIe. Упомянуты поддержка безопасной загрузки и расширенного шифрования, а также ускорение криптографических протоколов. Процессор BCM4918 APU можно комбинировать с чипами BCM6718 и BCM6714/BCM6719 для создания экономичных точек доступа Wi-Fi 8. Пробные поставки новых изделий уже начались.
14.01.2026 [13:05], Руслан Авдеев
Дональд Трамп: американцы не должны оплачивать модернизацию энергетической инфраструктуры для ИИ ЦОДДональд Трамп (Donald Trump) заявил, что техногиганты должны сами оплачивать адаптацию энергетической инфраструктуры для новых дата-центров — вместо того, чтобы перекладывать эту ношу на обычных людей, сообщает The Register. Соответствующее заявление он опубликовал в собственной социальной сети Truth Social, подчеркнув, что граждане США не должны оплачивать повышенные счета за электричество из-за дата-центров. Администрация президента работает с ключевыми технологическими компаниями для получения от них соответствующих обязательств. Трамп сообщил, что первой в списке станет Microsoft, которая уже сотрудничает с властями по данному вопросу. Это новая задача для президента, в прошлом году пообещавшего представителям технологической олигархии, что та получит столько энергии, сколько необходимо для сохранения лидерства США в сфере ИИ. Microsoft уже ответила на инициативу Трампа, представив т.н. проект Community-First AI Infrastructure. В компании утверждают, что намерены быть «хорошим соседом» в тех сообществах, где они строят ЦОД, владеют и управляют ими. Президент компании Брэд Смит (Brad Smith) заявил, что технологические компании имеют уникальную возможность обеспечить преимущества, которые ожидаются от внедрения ИИ, но в то же время несут ответственность за новые вызовы, которые это внедрение создаёт. В июне 2025 года один из представителей Microsoft жаловался, что есть сообщества, не желающие присутствия компании, а также на «отсутствие понимания» того, почему дата-центры необходимы, со стороны широкой общественности. Инициатива Community-First AI Infrastructure Initiative предоставляет рамочную программу для того, чтобы справляться с подобными вызовами, и связана с пятью обязательствами Microsoft:
Утверждается, что Microsoft будет запрашивать у коммунальных компаний цены на электричество, достаточно высокие, чтобы покрывать его стоимость для ЦОД компании, включая стоимость расширения инфраструктуры электроснабжения. Впрочем, Смит также отметил, что ИИ принесёт столько благ, что общество само должно помочь оплатить дополнительное электричество, в котором нуждается страна. Дополнительно Microsoft вновь подтвердила, что сохраняет и приверженность снижению объёмов используемой воды для ЦОД, к 2030 году интенсивность использования воды дата-центрами должна снизиться на 40 %. Впрочем, как сообщалось в 2023 году, год к году использование воды компанией только выросло на 34 % до 6,4 млн м3. Также Microsoft обязуется создавать новые рабочие места, хотя противники дата-центров отмечают, что тысячи человек нужны только на время строительства ЦОД, а в ходе их эксплуатации может хватить и 50. Впрочем, несмотря на весь оптимизм, Смит пришёл к выводу, что расширение инфраструктуры всегда сопряжено с трудностями, финансовыми затратами и неизбежно порождает опасения и споры. В Microsoft считают, что частные компании могли бы помочь, поскольку техногигантам не удастся преодолеть неизбежные вызовы в одиночку. Хотя многие эксперты опасаются пузыря на рынке ИИ, способного вызвать непредсказуемые последствия для всех сфер жизни, JPMorgan прогнозирует, что затраты на дата-центры и ИИ-инфраструктуру составят $5 трлн, а спрос будет «астрономический». Тем временем, как сообщалось в декабре 2025 года, в США стартовало расследование, касающееся влияния ИИ ЦОД на рост тарифов на электроэнергию.
14.01.2026 [10:03], Сергей Карасёв
5G RedCap, Wi-Fi 6 и 1GbE: вышел компактный IP-KVM с сенсорным экраном GL.iNet Comet 5GКомпания GL.iNet анонсировала устройство Comet 5G (модель GL-RM10RC): это, как утверждается, первое в мире решение для удалённого управления IP-KVM (Keyboard, Video, Mouse) с поддержкой Wi-Fi 6 и 5G RedCap (Reduced Capacity). Благодаря наличию модуля сотовой связи дистанционное взаимодействие с компьютером возможно даже в том случае, когда традиционное проводное подключение недоступно. Устройство выполнено в компактном корпусе с размерами 128 × 93 × 33 мм, а масса составляет 285 г. Во фронтальной части располагается 3,69" сенсорный дисплей для управления. Применён неназванный процессор с четырьмя ядрами Arm Cortex-A53 с тактовой частотой 1,5 ГГц (возможно, Rockchip RV1126B). Объём оперативной памяти DDR3L составляет 1 Гбайт, вместимость флеш-модуля eMMC — 64 Гбайт. Новинка оборудована входом HDMI с поддержкой 4K (30 к/с), выходом HDMI, сетевым портом 1GbE (RJ45) и разъёмом USB 2.0 Type-C для эмуляции клавиатуры/мыши. Кроме того, есть порт USB 2.0 Type-A для подключения периферийных устройств, таких как умный переключатель Fingerbot, который позволяет удалённо нажимать на физические кнопки: это даёт возможность дистанционно включать питание компьютера. Решение несёт на борту контроллер Wi-Fi 6 с поддержкой частотных диапазонов 2,4 и 5 ГГц: в обоих случаях скорость передачи данных составляет до 286 Мбит/с. Есть слот для карты NanoSIM и две внешние антенны (по одной для Wi-Fi и 5G). Питание (5 В /3 A) подаётся через дополнительный разъём USB Type-C. На устройстве применяется ОС с ядром Linux 6.1; доступны сопутствующие приложения GLKVM для Windows, macOS, Android и iOS (появится в ближайшее время).
14.01.2026 [09:45], Владимир Мироненко
Самая загадочная сделка 2025 года: зачем NVIDIA потратила $20 млрд на Groq?Сделка NVIDIA с ИИ-стартапом Groq, фактически означающая его поглощение, вызвала вопросы по поводу целей, которые преследует лидер ИИ-рынка. Для того, чтобы избежать волокиты с одобрением сделки регулирующими органами и антимонопольных расследований, NVIDIA провела её под видом приобретения неисключительной лицензии на технологии Groq. В результате сделки ключевые кадры Groq перешли в NVIDIA, а остатки команды во главе с финансовым директором продолжат управлять инфраструктурой GroqCloud и вряд ли смогут сохранить былую конкурентоспособность стартапа. Похожую сделку NVIDIA провела немногим ранее, фактически поглотив стартап Enfabrica, занимавшийся разработкой интерконнекта. В случае с Enfabrica, по слухам, сумма сделки составила $900 млн. Это большая сумма для стартапа, находящегося на ранней стадии, но вполне обоснованная в нынешних условиях, пишет EE Times. Groq — более крупный стартап, но и стоимость сделки гораздо выше — $20 млрд при последней оценке стартапа на уровне $6,9 млрд. Если в отношении Enfabrica предполагалось, что сделка была связана, хотя бы частично, с наймом персонала, то для Groq такая большая сумма вряд ли выглядит оправданной, если речь идёт только о привлечении квалифицированных кадров. Можно допустить, что NVIDIA планирует выпускать чипы Groq. Их упомянул в электронном письме сотрудникам гендиректор NVIDIA Дженсен Хуанг: «Мы планируем интегрировать процессоры Groq с низкой задержкой в архитектуру NVIDIA AI Factory, расширив платформу для обслуживания ещё более широкого спектра задач ИИ-инференса и рабочих нагрузок в реальном времени». Вместе с тем в ходе CES 2026 Хуанг заявил, что технология Groq не станет частью основного портфолио NVIDIA для ЦОД. «[Groq] — это совсем, совсем другое, и я не ожидаю, что что-либо заменит то, что мы делаем с Vera Rubin и нашим следующим поколением, — сказал Хуанг. — Однако мы могли бы добавить его технологию таким образом, чтобы что-то постепенно улучшить, чего мир ещё не смог сделать». Судя по фразе «могли бы», NVIDIA пока окончательно не определилась с тем, что будет делать с активами Groq. Технология Groq позволит решать задачи, которые недоступны для Vera Rubin, в частности, сверхбыстрый инференс в реальном времени, пишет EE Times. Можно предположить, что NVIDIA будет производить и развёртывать чипы Groq как отдельное решение в ЦОД. Хотя Хуанг и сказал об интеграции чипов Groq с архитектурой NVIDIA AI Factory, это всё ещё кажется несколько надуманным, так как означает признание NVIDIA в том, что её GPU не вполне подходят для некоторых рабочих нагрузок. Однако Дженсен Хуанг в очередной раз подчеркнул на CES 2026, что гибкости GPU вполне хватит для любых нагрузок. Впрочем, анонс соускорителей Rubin CPX говорит скорее об обратном. У Groq есть собственный программный стек, но насколько он хорош, сказать трудно. Для перезапуска технологий Groq в качестве продукта NVIDIA потребуется немало работы над ПО, а полноценная интеграция в программную экосистему может оказаться очень сложной. Более реалистичным вариантом может быть использование чиплета Groq вместе с большим чиплетом GPU для обработки определённых нагрузок, но и в этом случае ПО станет камнем преткновения, поскольку аппаратная часть принципиально слабо совместима с CUDA. Возникает вопрос: «Что же есть у Groq, чего нет у NVIDIA?». Одним из ответов может быть детерминизм — концепция, лежащая в основе архитектуры LPU Groq, которую компания пыталась продвинуть в автомобильной промышленности в 2020 году. Детерминизм имеет существенные преимущества для приложений, требующих функциональной безопасности, включая робототехнику — Хуанг в письме, упомянутом выше, говорит о «приложениях реального времени». Но для этого NVIDIA придется изменить свою риторику, признав, что для периферийных вычислений её ускорители подходят не всегда. В любом случае, у NVIDIA имеются огромные ресурсы и команда квалифицированных специалистов. Если бы она захотела создать ИИ-ускоритель, ориентированный на работу со SRAM, а не HBM, это обошлось бы гораздо дешевле уплаченных за Groq $20 млрд. Кроме того, утверждает EE Times, она могла бы за существенно меньшую сумму пробрести d-Matrix или даже SambaNova, которая готова продаться Intel всего за $1,6 млрд. Как полагают аналитики EE Times, помимо лицензирования технологии и найма специалистов Groq, в принятии решения купить стартап также сыграли роль коммерческие факторы. Groq имеет обширные партнёрские отношения с крупными компаниями стран Персидского залива. У стартапа также есть соглашения о суверенном ИИ и в других странах, что могло показаться привлекательным для NVIDIA. Тем не менее, одним из главных аргументов в пользу покупки Groq до сих пор было то, что это вполне жизнеспособная и недорогая альтернатива NVIDIA для построения суверенной ИИ-инфраструктуры. То есть покупку Groq можно также объяснить желанием помешать одному из клиентов-гиперскейлеров купить Groq, будь то из-за аппаратной интеллектуальной собственности или уже развёрнутой инфраструктуры. Это может быть Meta✴, Microsoft или даже OpenAI, чьи планы по созданию собственного ИИ-оборудования всё ещё находятся на стадии подготовки или пока имеют умеренный успех, тогда как Google уже готов отдать «на сторону» свои ускорители TPU, а AWS со своими Trainium всё-таки готова сотрудничать с NVIDIA по аппаратной части. В свою очередь, аналитики ресурса The Register объясняют покупку Groq за столь крупную сумму интересом NVIDIA к «конвейерной архитектуре» (dataflow) стартапа, которая, по сути, создана специально для ускорения вычислений линейной алгебры, выполняемых в ходе инференса. Стоит отметить, что архитектуры с управляемым потоком данных не ограничиваются проектами, ориентированными на SRAM. Например, NextSilicon использует HBM. Groq выбрал SRAM только потому, что это упростило задачу, но нет никаких причин, по которым NVIDIA не могла бы создать dataflow-ускоритель на основе IP-блоков Groq, используя SRAM, HBM или GDDR, пишет The Register. Правильно реализовать такую архитектуру очень сложно, но Groq удалось заставить её работать надлежащим образом, по крайней мере, для инференса, утверждает The Register. Таким образом, Groq даст NVIDIA оптимизированную для инференса вычислительную архитектуру, чего ей так сильно не хватало, полагают аналитики ресурса. Именно этого и не хватает NVIDIA, поскольку у неё фактически нет выделенных чипов для этой задачи. Ситуация изменится с запуском NVIDIA Rubin в 2026 году и их «напарников» Rubin CPX. При этом ускорители Groq LPU в силу малого объёма SRAM для обработки современных LLM необходимо объединять в кластеры из десятков и сотен чипов. Это верно и для других ускорителей примерно того же типа, включая Cerebras. Вместе с тем LPU, по мнению The Register, теоретически могут пригодиться для т.н. спекулятивного декодирования, когда малая модель, не больше нескольких миллиардов параметров, используется для предсказания ответов большой модели. Если малая модель правильно «угадывает» их, общая производительность инференса может вырасти в два-три раза. Стоит ли такая опция $20 млрд, вопрос отдельный, но Хуанг, по-видимому, играет вдолгую.
14.01.2026 [01:29], Владимир Мироненко
Безоблачно: США запретили Китаю удалённый доступ к передовым ИИ-ускорителямПалата представителей США приняла подавляющим большинством «Закон о безопасности удалённого доступа» (Remote Access Security Act). Как сообщается на сайте Специального комитета Палаты Представителей США по стратегическому соперничеству между Соединёнными Штатами и Компартией Китая (CCP), этот закон расширяет действие «Закона о реформе экспортного контроля», позволяя федеральным властям «ограничивать возможности иностранных противников получать удалённый доступ к технологиям, включая ИИ-чипы, через облачные вычислительные сервисы». Проще говоря, теперь китайским компаниям запрещён доступ к передовым ускорителям в ЦОД и облаках за пределами КНР. Хотя экспорт ускорителей NVIDIA H200 теперь разрешён, поставка в Китай более мощных чипы на базе архитектуры Blackwell по-прежнему запрещена, как и ускорителей с новой архитектурой Vera Rubin. Новый закон призван перекрыть пробелы в законодательстве США, которыми с успехом пользуются китайские компании, получая доступ к находящимся под санкциями ИИ-ускорителям, покупая или арендуя их для использования на территории США. О таких обходных путях стало известно в 2024 году, когда выяснилось, что ByteDance, китайский владелец TikTok, арендовал передовые чипы NVIDIA у Oracle, пишет Data Center Dynamics. Как передаёт The Register, китайские компании обходят экспортные ограничения на высокопроизводительные ускорители NVIDIA и другие чипы, получая к ним доступ через такие платформы, как AWS и Azure, по крайней мере, с 2023 года. The Register также ранее сообщал, что китайские облачные провайдеры, такие как Alibaba и Tencent, могут предоставлять доступ к находящимся под экспортными ограничениями GPU клиентам в Китае, арендуя облачное оборудование, размещённое за пределами страны. В свою очередь, Microsoft и AWS предлагают в Китае через местных партнёров облачные услуги, в целом аналогичные тем, что доступны в других странах. «Амбиции КПК в области ИИ подпитываются доступом к американским чипам, размещённым в ЦОД за пределами Китая, — заявил председатель Специального комитета по Китаю, один из соавторов законопроекта. — Этот законопроект переводит наши законы в цифровую эпоху и ясно даёт понять, что облачные вычисления подпадают под действие американского законодательства об экспортном контроле, так же как и физические чипы. Устранение этих лазеек укрепит национальную безопасность США и защитит американские инновации». Новый закон теоретически может целиком перекрыть бизнес некоторых азиатских компаний. После появления сообщения о том, что NVIDIA потребует от китайских клиентов, приобретающих ускорители H200, полной предоплаты, чипмейкер выступил с опровержением, заявив агентству Reuters, которое первым сообщило об этом что «никогда не будет требовать от клиентов оплаты за продукцию, которую они не получают». В начале декабря администрация Трампа разрешила NVIDIA продавать H200 «одобренным клиентам» в Китае и других странах при условии выплаты 25-% пошлины. В свою очередь, китайское правительство попросило технологические компании страны приостановить оформление заказов на ускорители, пока регулирующие органы не определятся с соотношением приобретаемых чипов H200 и отечественных чипов «в нагрузку» к ним.
13.01.2026 [22:30], Владимир Мироненко
Veeam приобрела поставщика СХД Object First для расширения возможностей своей экосистемыVeeam приобрела компанию Object First, основанную учредителями Veeam в 2022 году и специализирующуюся на поставке предварительно интегрированных устройств резервного копирования для сред Veeam. Как пишет StorageReview.com, Veeam отметила, что сделка позволит расширить возможности её экосистемы, не меняя стратегию, партнёрские отношения двух компаний или бизнес-модель. Финансовые подробности сделки не расглашаются. В настоящее время неизменяемость (immutability) стала стандартным требованием для решений резервного копирования. Современные программы-вымогатели всё чаще атакуют системы резервного копирования, что делает изолированные, неизменяемые резервные копии критически важными для восстановления, соответствия требованиям и киберстрахования. Компании продолжат работу независимо друг от друга, пока не будет разработана программа интеграции. Veeam сообщила, что и дальше будет ориентироваться на разработку ПО без привязки к конкретному хранилищу, и что клиентам будет и дальше предлагаться наилучшее целевое хранилище резервных копий, исходя из потребностей в безопасности, сложности эксплуатации и требований к настройке. Object First поставляет готовые к использованию локальные СХД для Veeam. Её платформа Ootbi (Out-of-the-Box Immutability), в том числе только что представленный вариант Ootbi Mini, предлагает собственное объектное S3-хранилище с включённой по умолчанию блокировкой объектов. Устройства Object First разработаны для конкретных сценариев использования, обеспечивая быстрое развёртывание и надёжную защиту от программ-вымогателей. Object First придерживается принципов нулевого доверия и обеспечивает неизменяемость данных. Семейство устройств Object First варьируется от небольших решений, предназначенных для использования на периферии малыми и средними предприятиями, до более крупных систем, рассчитанных на резервное копирование сотен терабайт данных. Эти более крупные системы поддерживают масштабирование и хорошо интегрируются с архитектурами Veeam. В устройствах также предусмотрена защита от случайных ошибок администратора. Как сообщает Veeam, облачный сервис хранения данных Veeam Data Cloud Vault, разработанный в сотрудничестве с Microsoft, является самым быстрорастущим продуктом в её истории, завоевавшим популярность среди клиентов, стремящихся к простому, безопасному и единому поставщику. ПО Veeam Software Appliance упрощает безопасное развёртывание, а Object First добавляет ещё один, локальный вариант хранения: предварительно интегрированное устройство резервного копирования. Как полагают аналитики StorageReview, эта сделка меньше всего связана с выходом Veeam на рынок производителей оборудования и больше — с созданием повторяемого и поддерживаемого решения, обеспечивающего киберустойчивость. Вместе с тем Veeam придётся учитывать аспекты, связанные с владением бизнесом по производству оборудования, в частности, избежать потенциальных конфликтов, особенно с поставщиками хранилищ, которые помогли создать процветающую экосистему Veeam. Как отметил StorageReview, Object First берёт на себя одну из наиболее подверженных сбоям частей современной архитектуры резервного копирования — целевое хранилище — и превращает её в специализированный продукт. Ресурс добавил, что Ootbi разработана как наиболее безопасное место для хранения резервных копий, с гарантированной неизменяемостью по умолчанию и меньшим количеством возможностей для неправильной настройки. |
|
