Материалы по тегу:
|
17.03.2026 [11:02], Руслан Авдеев
Meta✴ потратит до $27 млрд на ИИ-инфраструктуру NebiusMeta✴ Platforms в течение пяти лет намерена заплатить $27 млрд за ИИ-инфраструктуру, доступ к которой предоставит облачный провайдер Nebius Group, базирующийся в Нидерландах, сообщает Bloomberg. В Meta✴ подтвердили сделку с Nebius. Nebius — стратегический партнёр NVIDIA, с 2027 года предоставит Meta✴ мощности ЦОД на $12 млрд, ещё до $15 млрд Meta✴ потратит на покупку мощностей, которые облачный провайдер строит для сторонних клиентов. Это один из крупнейших «разовых» контрактов, заключенных Meta✴, что подчёркивает стремление компании развиваться в сфере ИИ. Недавно появилась информация, что компания сократит более 20 % штата из-за высоких затрат на ИИ-проекты. В 2025 году она уже заключила сделку с Nebius на $3 млрд. За последние 12 месяцев акции Nebius выросли в цене в четыре раза, а на фоне новостей подорожали на 15 %, а Meta✴ — на 2,8 %.
Источник изображения: Nebius Предполагается, что Meta✴ и её крупнейшие конкуренты потратят в 2026 году около $650 млрд на строительство ЦОД и покупку другой инфраструктуры на фоне взрывного роста спроса на ИИ-сервисы в ближайшие годы. Для Meta✴ ИИ в последнее время является ключевым приоритетом и компания вкладывает значительные средства в конкуренцию с OpenAI, Google и др. С начала года заключены соглашения с NVIDIA и AMD о создании ИИ-инфраструктуры. Кроме того, Meta✴ разрабатывает и собственные ИИ-ускорители. В 2025 году заявлялось, что к 2028 году Meta✴ потратит на инфраструктурные инициативы в США $600 млрд. Для этого она будет использовать средства, вырученные от рекламного бизнеса и внешнее финансирование. Компания разрабатывает также и собственные ИИ-модели и др.
Источник изображения: Bloomberg Nebius, отделившаяся от «Яндекса» в 2024 году, — один из немногих новичков, очень успешно воспользовавшихся бумом ИИ-технологий; при этом немаловажную роль играет NVIDIA, активно инвестирующая в стартапы, конкурирующие с гиперскейлерами вроде Google и Amazon (AWS). На днях NVIDIA объявила о намерении инвестировать в Nebius $2 млрд, что привело к росту акций последней на 16 %. Значительная часть инвестиций NVIDIA была направлена компаниям, покупающим её собственные чипы. Это вызвало критику экспертов рынка, опасающихся, что такие инвестиции подпитывают создание ИИ-пузыря. Например, в январе NVIDIA сообщила об инвестициях $2 млрд в неооблачного провайдера CoreWeave, конкурирующего с Nebius, средства предназначались на внедрение ИИ-ускорителей самой NVIDIA. В 2026 году компания вложила $30 млрд в OpenAI, а также принимала участие в очередном раунде финансирования британской Nscale, желавшей привлечь $2 млрд. В январе сообщалось, что затраты Meta✴ на связанные с ИИ расходы в 2026 году составят от $115 до $135 млрд, это превышает прогнозы аналитиков в $110,7 млрд и почти вдвое больше, чем капитальные затраты компании в 2025 году, которые составили $72,2 млрд. Роста затрат направлен на поддержку подразделения Meta✴ Superintelligence Labs (MSL), а также основной повседневной деятельности компании.
17.03.2026 [10:32], Руслан Авдеев
NVIDIA анонсировала Space-1 Vera Rubin Module — основа для орбитальных ЦОД, которая в 25 раз быстрее H100Глава NVIDIA Дженсен Хуанг (Jensen Huang) в ходе конференции GTC 2026 представил космический вычислительный модуль на архитектуре Vera Rubin. По его словам, модуль до 25 раз производительнее, чем вариант NVIDIA H100, и шесть коммерческих космических компаний уже внедрили платформу, сообщает Tom’s Hardware. Space-1 Vera Rubin Module предназначен для орбитальных дата-центров, работающих с ИИ-моделями непосредственно в космосе. Он имеет тесно интегрированную архитектуру CPU–GPU и высокоскоростной интерконнект для работы с большими потоками данных от космических инструментов в режиме реального времени. Также предлагается вариант NVIDIA IGX Thor для критически важных периферийных сред с поддержкой выполнения ИИ-задач в режиме реального времени, безопасной загрузки, автономных операций и др. Наиболее компактный вариант NVIDIA Jetson Orin предназначается для самых компактных устройств и рассчитан на использование в спутниках с ограниченными размерами, весом и энергопотреблением — для систем бортового «зрения», навигации и обработки данных с датчиков. Для Земли NVIDIA предлагает ускорители RTX PRO 6000 Blackwell Series Server Edition для геопространственной разведки. Заявленная производительность — при обработке больших массивов изображений в 100 раз выше, чем у устаревших систем на базе CPU.
Источник изображения: NVIDIA По данным NVIDIA, сейчас её новые платформы на Земле и в космосе используют компании Aetherflux, Axiom Space, Kepler Communications, Planet Labs PBC, Sophia Space и Starcloud, Kepler внедряет Jetson Orin в своей спутниковой группировке для управления данными и их маршрутизацией с помощью ИИ-инструментов. NVIDIA Jetson Orin применяется непосредственно в спутниках. В октябре 2025 года основатель Amazon и Blue Origin Джефф Безос (Jeff Bezos) прогнозировал, что через 10–20 лет на орбите появятся ЦОД гигаваттного масштаба. Основными преимуществами таких решений назывались возможность непрерывного электроснабжения группировки с помощью солнечной энергии, а также упрощённая система охлаждения в космосе. Starcloud уже строит специальные орбитальные ИИ-ЦОД, предназначенные для обучения моделей и инференса непосредственно на орбите. ИИ-ускорители IGX Thor, Jetson Orin и RTX PRO 6000 Blackwell Server Edition уже доступны клиентам NVIDIA. Дата начала продаж Vera Rubin Space Module до сих пор неизвестна: заявляется, что модуль появится в продаже «позже». Космические ЦОД — весьма перспективное направление в сфере ИИ. Одним из наиболее громких событий стала заявка SpaceX, попросившей у американских властей разрешение на вывод на орбиту миллиона микро-ЦОД. Инициатива подверглась критике Amazon как «спекулятивная», но компания столкнулась с критикой Федеральной комиссии по связи с США, потребовавшей навести порядок в собственном космическом бизнесе.
17.03.2026 [10:21], Сергей Карасёв
NVIDIA представила центральные процессоры Vera с 88 ядрами Olympus для ИИ и не толькоКомпания NVIDIA анонсировала процессоры Vera, спроектированные с прицелом на современные ресурсоёмкие задачи в области ИИ. Изделия, как утверждается, обеспечивают исключительную производительность каждого ядра, а также высокую пропускную способность памяти и коммутационной сети. В основу Vera положены ядра Olympus — это первые CPU-решения NVIDIA, специально разработанные для дата-центров. Olympus используют 10-битный интерфейс выборки и декодирования инструкций, а также нейронный алгоритм предсказания ветвлений, позволяющий оценивать два варианта ветвления за каждый цикл. Изделие полностью совместимо с набором инструкций Arm v9.2 и существующим ПО.
Источник изображений: NVIDIA Конфигурация Vera предусматривает наличие 88 ядер Olympus с возможностью одновременной обработки до 176 потоков инструкций. Объём кеша L3 составляет 162 Мбайт. Задействована шина NVIDIA Scalable Coherency Fabric (SCF) второго поколения, первоначально разработанная для CPU семейства NVIDIA Grace. В составе процессора SCF отвечает за связь вычислительных ядер Olympus с общим кешем L3 и подсистемой памяти, обеспечивая стабильную задержку и пропускную способность на уровне 3,4 Тбайт/с: это позволяет использовать более 90 % пиковой пропускной способности памяти под нагрузкой. Каждому ядру Olympus доступна полоса до 14 Гбайт/с, что примерно в три раза превышает пропускную способность на ядро в традиционных CPU для дата-центров. ![]() В составе Vera применяется подсистема памяти LPDDR5X на основе модулей SOCAMM (Small Outline Compression Attached Memory Modules). Суммарная ёмкость может составлять до 1,5 Тбайт, что втрое больше по сравнению с решениями предыдущего поколения. Пропускная способность памяти достигает 1,2 Тбайт/с, тогда как энергопотребление составляет менее 50% по сравнению с традиционными конфигурациями DDR. При этом модули SOCAMM являются заменяемыми, что упрощает модернизацию и обслуживание систем. Процессор Vera выполнен на основе единого монолитного вычислительного кристалла. Каждое ядро обеспечивается единообразной пропускной способностью. Большинство операций, чувствительных к задержкам, выполняются локально, что позволяет минимизировать межкристальный трафик, который обычно присутствует в традиционных CPU. В целом, как утверждается, реализованные архитектурные особенности позволяют чипам Vera демонстрировать до 1,5 раз более высокую производительность одного ядра по сравнению с конкурирующими решениями x86 при выполнении задач в песочнице с максимальной нагрузкой на сокет. NVIDIA разработала семейство платформ на базе Vera для решения разнообразных задач в сфере ИИ. Это, в частности, CPU-стойки с жидкостным охлаждением, а также системы с GPU поколения Rubin. Устройства на базе Vera будут поставляться крупными OEM-производителями, включая Cisco, Dell, HPE, Lenovo и Supermicro. Такие машины станут доступны во II половине текущего года.
17.03.2026 [02:00], Владимир Мироненко
ИИ-ускорители Groq прописались в платформе NVIDIA Vera RubinNVIDIA объявила о том, что платформа Vera Rubin, объединяющая теперь уже семь различных чипов (ещё в январе их было шесть), которые вместе откроют новые горизонты агентного ИИ, запущена в производство. Платформа включает Arm-процессоры Vera, ускорители Rubin, интерконнект NVLink 6, адаптеры ConnectX-9 SuperNIC и DPU BlueField-4, а также Ethernet-коммутаторы Spectrum/Quantum-6. Седьмым чипом стал LPU Groq 3 — NVIDIA купила Groq за рекордные $20 млрд всего три месяца назад и активно наращивает производство LPU. Благодаря такому сочетанию компонентов платформа обеспечивает обработку ИИ-нагрузок на всех этапах — от масштабного предварительного обучения, постобучения и масштабирования во время тестирования до инференса агентных задач в реальном времени, говорит NVIDIA. «Vera Rubin — это скачок в развитии — семь прорывных чипов, пять стоек, один гигантский суперкомпьютер — созданный для обеспечения всех этапов работы ИИ», — сообщил Дженсен Хуанг (Jensen Huang), основатель и генеральный директор NVIDIA. Он отметил, что с появлением Vera Rubin в развитии агентного ИИ наступил переломный момент, положившей начало «крупнейшему в истории развёртыванию инфраструктуры». «Платформа NVIDIA Vera Rubin предоставляет нам вычислительные ресурсы, сетевые возможности и системную архитектуру, позволяющие продолжать работу, одновременно повышая безопасность и надёжность, на которые полагаются наши клиенты», — подтвердил Дарио Амодеи (Dario Amodei), генеральный директор и соучредитель Anthropic. «Инфраструктура NVIDIA — это основа, которая позволяет нам расширять границы ИИ, — заявил Сэм Альтман (Sam Altman), генеральный директор OpenAI. — С NVIDIA Vera Rubin мы будем запускать более мощные модели и агентов в огромных масштабах и предоставлять более быстрые и надёжные системы сотням миллионов людей». Как отметила компания, Vera Rubin предлагает самую обширную комплексную ИИ-платформу — суперкомпьютер с множеством стоек, специально разработанных для ИИ, работающих как одна массивная, целостная система. NVIDIA Vera Rubin NVL72 обеспечивает высокую эффективность в обучение больших MoE-моделей с использованием вчетверо меньшего количества ускорителей по сравнению с платформой Blackwell и достижение до 10 раз большей пропускной способности инференса на ватт при в десять раз меньшей стоимости токена. CPU-стойка Vera — это высокоплотная MGX-платформа с СЖО, объединяющая 256 процессоров Vera для обеспечения масштабируемой, энергоэффективной производительности с первоклассной однопоточной обработкой, что обеспечивает возможности для масштабируемого агентного ИИ. Стойки Vera имеют тесную синхронизацию сред во всей ИИ-фабрике. Вместе со стойками Rubin они обеспечивают основу крупномасштабных систем агентного ИИ и обучения с подкреплением — при этом Vera обеспечивает результаты в два раза эффективнее и наполовину быстрее, чем традиционные CPU (впрочем, в NVL8 по-прежнему будут Intel Xeon). Стойки Groq 3 LPX (тоже с СЖО и тоже на базе MGX) и Vera Rubin, разработанные для обеспечения низкой задержки и обработки больших контекстов, необходимых для агентных систем, обеспечивают до 35 раз более высокую пропускную способность инференса на мегаватт и до 10 раз больший потенциал дохода для моделей с триллионами параметров. В масштабе предприятия парк LPU функционирует как единый гигантский процессор для быстрого и детерминированного ускорения инференса. Стойка LPX с 256 LPU-чипами имеет 128 Гбайт SRAM с агрегированной пропускной способностью 640 Тбайт/с. В сочетании с Vera Rubin NVL72 чипы LPU повышают эффективность декодирования, совместно вычисляя каждый слой модели ИИ для каждого выходного токена. Всё это позволяет работать с моделями с триллионами параметров и контектсным окном в миллионы токенов, сохраняя максимальную эффективность по энергопотреблению, памяти и вычислительным ресурсам. Анонсированная вместе с Vera Rubin СХД BlueField-4 STX разработана специально для ИИ-нагрузок, обеспечивая бесперебойное расширение памяти GPU по всему POD-кластеру. Впрочем, теперь компания говорит, что BlueField-4 включает CPU Vera, а не Grace, и ConnectX-9 SuperNIC. STX обеспечивает высокоскоростной общий слой данных, оптимизированный для хранения и извлечения больших объёмов KV-кеша, генерируемых LLM и рабочими процессами агентного ИИ. А программная платформа DOCA Memos позволяет использовать выделенное KV-хранилище для увеличения пропускной способности инференса до пяти раз, также повышая энергоэффективность по сравнению с архитектурами хранения общего назначения. Также NVIDIA совместно с более чем 200 партнёрами анонсировала платформу NVIDIA DSX для Vera Rubin, которая включает технологию DSX Max-Q, позволяющую динамически управлять питанием всей ИИ-фабрики целиком, позволяя увеличить на 30 % ИИ-инфраструктуру в ЦОД при том же энергопотреблении. ПО DSX Flex обеспечивает ИИ-фабрикам гибкость в работе с энергосетями, позволяя освоить до 100 ГВт неиспользуемой мощности сетей. Кроме того, NVIDIA выпустила эталонный проект Vera Rubin DSX AI Factory — схему для совместно разработанной ИИ-инфраструктуры, которая максимизирует количество токенов на ватт и общую пропускную способность, повышая отказоустойчивость системы и ускоряя развётывание. Продукты на базе Vera Rubin будут доступны у партнёров NVIDIA, начиная со II половины этого года. В их число входят гиперскейлеры AWS, Google Cloud, Microsoft Azure и Oracle Cloud, а также партнёры NVIDIA Cloud — CoreWeave, Crusoe, Lambda, Nebius, Nscale и Together AI. Ожидается, что широкий спектр серверов на базе продуктов Vera Rubin будут поставлять глобальные производители систем Cisco, Dell Technologies, HPE, Lenovo и Supermicro, а также Aivres, ASUS, Foxconn, GIGABYTE, Inventec, Pegatron, Quanta Cloud Technology (QCT), Wistron и Wiwynn.
17.03.2026 [00:52], Владимир Мироненко
Решение TrueNAS Connect обеспечит пользователям Community Edition и сторонних СХД бесплатный доступ к продвинутым функциям TrueNAS EnterpriseКомпания TrueNAS (ранее — iXsystems) объявила о доступности сервиса TrueNAS Connect, который позиционируется как своего рода мост для доступа к корпоративным функциям хранения данных TrueNAS без необходимости приобретения её оборудования. TrueNAS Enterprise отличается от бесплатной TrueNAS Community Edition для NAS-устройств и других систем хранения данных, основанной на Linux, расширенными возможностями, включая проактивное оповещение, расширенное управление, безопасность уровня оборонных стандартов, повышение производительности, интеграцию со сторонним программным обеспечением и т. д. Доступ к этим функциям ранее можно было получить только через коммерческие партнёрские отношения с TrueNAS в рамках бизнес-модели Open-Core, например приобретая устройства TrueNAS Enterprise — различные серверы и решения для хранения данных с предустановленной TrueNAS Enterprise, предоставляющей самый продвинутый набор функций для этой открытой платформы. «TrueNAS Connect был представлен в начале 2026 года как решение для мониторинга и управления, расширяющее и улучшающее вашу установку TrueNAS за счёт дополнительных веб-функций, а также упрощающее процесс установки для новых пользователей. В течение 2026 года TrueNAS Connect также станет мостом между нашей бесплатной версией Community Edition и нашими корпоративными устройствами Enterprise», — отметила компания. Новое решение позволяет клиентам пользоваться расширенными функциями без необходимости приобретения устройств TrueNAS Enterprise. Это является подходящим вариантом для тех, кто уже инвестировал в другое оборудование или вынужден использовать его по требованиям организации, но хочет максимально использовать возможности TrueNAS в корпоративной среде, отметил ресурс Phoronix. Компания пояснила, что Community Edition предназначена для энтузиастов, домашних лабораторий, студентов и самостоятельных технических команд, которым нужна мощная платформа хранения данных без лицензионных сборов. Она включает в себя полную основу OpenZFS с файловыми, блочными и объектными протоколами, виртуальными машинами, Docker, приложениями и многим другим. Версия будет оставаться бесплатной — ничего не удаляется, и постоянно добавляются новые функции с открытым исходным кодом. В свою очередь, TrueNAS Enterprise предназначена для ИТ-руководителей и профессиональных организаций, которым нужны готовые к использованию высокодоступные устройства, безопасность уровня оборонного предприятия, выделенная поддержка и глубокая интеграция с такими платформами, как VMware, Proxmox и Veeam. TrueNAS Connect предоставляет новые возможности для опытных пользователей: профессионалов, малых предприятий и т. д. «Это мост, обеспечивающий возможности корпоративного класса, такие как расширенный мониторинг, веб-доступ, проактивные оповещения, управление несколькими системами и защита от программ-вымогателей, для вашего собственного оборудования», — сообщила TrueNAS, добавив, что планирует в ближайшие годы предложить больше дополнительных функций для опытных пользователей. TrueNAS Connect включает бесплатный уровень Foundation, который охватывает базовую функциональность, а также платные уровни Plus и Business, причём последний появится в будущем, для команд, которым требуется больше возможностей. Он также значительно упрощает установку Community Edition на оборудование bare metal. Компания отметила, что бизнес-модель Open-Core не меняется. ПО TrueNAS остаётся основой для всех трёх версий. Многие новые функции будут автоматически включены в бесплатную версию Community Edition. TrueNAS Connect управляет лицензированием и разрешениями, которые обеспечивают возможности Enterprise, выходящие за рамки бесплатного уровня.
16.03.2026 [22:47], Андрей Крупин
70 % российских компаний продолжают использовать софт AtlassianОколо 70 % отечественных организаций до сих пор продолжают использовать неподдерживаемые версии программных решений Jira, Confluence и Trello австралийской компании Atlassian. Об этом свидетельствует проведённое системным интегратором «К2Тех» исследование. Согласно представленным «К2Тех» сведениям, лишь 15 % организаций ведут активную миграцию с решений Atlassian. Ещё 15 % приступили к пилотным проектам. Основная масса демонстрирует выжидательную позицию: 46 % опрошенных компаний находятся на стадии оценки вариантов, 10 % вообще не начинали процесс миграции. Таким образом, 7 из 10 предприятий все ещё продолжают эксплуатацию решений Atlassian, которые официально не поддерживаются. При этом 53 % опрошенных компаний оценивают срок миграции в 1–2 года, а 28 % считают, что им потребуется более двух лет. Оставшаяся часть считает реалистичным завершить миграцию в срок до одного года.
Источник изображения: Atlassian Напомним, с 30 марта 2026 года Atlassian официально прекратит продажи новых лицензий Data Center по всему миру и сфокусируется на реализации глобальной стратегии перевода клиентов с серверных лицензий на облачную модель. Для российского бизнеса такой вариант неприемлем, в первую очередь — по причине корпоративных политик безопасности, запрещающих хранение чувствительных данных за пределами контура компании. «С 2022 года некоторые компании продлевали лицензии Atlassian через иностранные юрлица, но переход вендора на облачную модель сделал эти схемы невозможными. Легальный доступ к облачным сервисам Atlassian для российских пользователей отсутствует, а для крупного бизнеса и окологосударственных структур он исключён также требованиями к размещению данных на сторонних серверах. В результате единственным доступным сценарием остаётся использование устаревших серверных версий без поддержки вендора. Однако такой подход сопряжён с нарастающими рисками: неустранимые уязвимости, несовместимость с актуальными ОС и невозможность интеграции с корпоративными системами», — поясняет системный интегратор «К2Тех», прогнозирующий в текущем году массовый переход отечественного бизнеса на российские аналоги Atlassian.
16.03.2026 [11:05], Сергей Карасёв
Рынок СХД в 2025 году достиг рекордного объёма в $33 млрдКомпания IDC обнародовала результаты исследования мирового рынка СХД корпоративного класса в IV квартале и 2025 году в целом. Отрасль демонстрирует рост, обусловленный расширением инфраструктур дата-центров на фоне стремительного внедрения ИИ и переноса рабочих нагрузок в облако. В период с октября по декабрь включительно продажи СХД достигли $9,7 млрд, что на 5,5 % больше по отношению к последней четверти 2024-го. Самые высокие темпы роста зафиксированы в сегменте массивов All Flash — плюс 18,1 % в годовом исчислении. Решения на основе HDD показали прибавку в размере 3,1 %, тогда как поступления от гибридных систем на базе SSD/HDD снизились на 6,7 %.
Источник изображения: IDC В ценовом разрезе наиболее быстрорастущим сегментом остаются СХД среднего класса стоимостью от $25 тыс. до 250 тыс.: их продажи в деньгах поднялись в IV квартале 2025 года на 8,5 %, а доля оказалась на уровне 66 % от общего объёма рынка. Системы высокого класса (дороже $250 тыс.) показали прибавку в размере 5,4 %. Спрос на решения начального уровня (дешевле $25 тыс.) сократился на 6,9 %. В рейтинге ведущих производителей лидирует Dell Technologies, у которой продажи в последней четверти 2025 года достигли $2,29 млрд, поднявшись на 7,0 % год к году: компания заняла 23,7 % рынка. На втором месте располагается Huawei с $1,22 млрд (плюс 4,9 % год к году) и 12,6 %. Замыкает тройку NetApp, увеличившая продажи на 3,6 % — до $789,13 млн, что соответствует доли в 8,1 %. В первую пятёрку также входят Everpure и IBM с $691,03 млн и $609,76 млн и 7,1 % и 6,3 % соответственно. В географическом плане Китай и США показали самый существенный рост — на 8,0 % и 6,9 % по сравнению с IV кварталом 2024 года. В регионе EMEA (Европа, Ближний Восток и Африка) продажи поднялись на 4,3 %, в Латинской Америке — на 1,8 %, в Японии — на 0,8 %. В странах APeJC (Азиатско-Тихоокеанский регион за исключением Китая и Японии) показатель снизился на 0,1 %, а в Канаде спрос упал на 0,8 %. По итогам 2025 года в целом объём глобального рынка СХД достиг $33 млрд, что стало новым рекордом. По сравнению предыдущим годом показатель поднялся на 3,9 %.
16.03.2026 [10:54], Руслан Авдеев
Reuters: Meta✴ планирует уволить каждого пятого, чтобы компенсировать расходы на ИИ-проектыКомпания Meta✴ намерена провести масштабные сокращения штата, способные затронуть 20 % сотрудников или даже более. Предполагается, что это поможет компенсировать большие расходы на создание ИИ-инфраструктуры и «подготовиться» к повышению эффективности, связанному с массовым внедрением ИИ, сообщает Reuters со ссылкой на три источника, знакомых с вопросом. Источники свидетельствуют, что точная дата сокращений ещё не названа и их масштабы ещё не определены. По некоторым сведениям, топ-менеджмент недавно уведомил ряд других руководителей Meta✴ о предстоящих событиях и поручил начать планирование сокращения расходов. В самой компании поспешили заявить, что речь идёт о «спекулятивных заявлениях» и «теоретических выкладках». Если Meta✴ согласует увольнение 20 % сотрудников, это станет самым значимым для компании раундом сокращений с момента реструктуризации в конце 2022 — начале 2023 года. Этот период тогда назывался «годом эффективности», когда было уволено в общей сложности более 20 тыс. человек. По последним данным, на 31 декабря 2025 года в компании работало около 79 тыс. человек. В последнее время глава Meta✴ Марк Цукерберг (Mark Zuckerberg) поощряет более активное участие компании в ИИ-проектах. Для привлечения лучших специалистов в области ИИ предлагаются крупные компенсационные пакеты: выплаты новой команде для создания «суперинтеллекта» на ближайшие четыре года оценивались в сотни миллионов долларов.
Источник изображения: Allef Vinicius/unsplash.com Более того, компания заявляла о намерении инвестировать $600 млрд в строительство ЦОД к 2028 году. Не так давно сообщалось, что компания тратит не менее $2 млрд на покупку китайского ИИ-стартапа Manus и др. При этом Цукерберг ещё в январе 2026 года подчёркивал, что проекты, ранее требовавшие больших команд, теперь могут выполняться одним очень талантливым человеком. Запланированные Meta✴ инвестиции в ИИ последовали за рядом неудач с моделями семейства Llama 4 в 2025 году. В конце концов компания отказалась от выпуска крупнейшей версии модели под названием Behemoth, планировавшейся на лето. В текущем году команда по созданию «сверхразума» работала над восстановлением позиций компании на рынке ИИ, создав модель Avocado, однако и она не оправдала ожиданий. В январе сообщалось, что затраты компании на связанные с ИИ расходы в 2026 году составят от $115 до $135 млрд, это превышает прогнозы аналитиков в $110,7 млрд и почти вдвое больше, чем капитальные затраты компании в 2025 году, которые составили $72,2 млрд. Роста затрат направлен на поддержку подразделения Meta✴ Superintelligence Labs (MSL), а также основной повседневной деятельности компании. В том же месяце появилась информация, что Meta✴ создаёт подразделение Meta✴ Compute для строительства ИИ ЦОД на десятки гигаватт, в феврале появились данные, что компания получит миллионы ИИ-ускорителей Google TPU, а в марте — сведения о том, что она представила четыре новых собственных ИИ-ускорителя MTIA с FP8-производительностью до 10 Пфлопс.
16.03.2026 [10:49], Руслан Авдеев
Власти США отозвали законопроект, запрещавший экспорт ИИ-чипов без прямого разрешения американских властейМинистерство торговли США отозвало законопроект, ограничивавший новый порядок экспорта ИИ-чипов в любую точку мира без разрешения американских властей. Электронное уведомление об этом появилось на одном из правительственных сайтов, сообщает Bloomberg. В прошлую пятницу на сайте Административно-бюджетного управления США (OMB) появилась информация о том, что межведомственная экспертиза документа завершена и документ отозван. При этом никаких других деталей не раскрывается. Представитель администрации президента США Дональда Трампа (Donald Trump) заявил, что документ действительно представлял собой лишь проект, и все дискуссии, касавшиеся его применения, носили предварительный характер. Информация о возможном принятии нового закона появилась в начале марта. Новые правила, если бы были приняты, обязывали бы компании вроде NVIDIA и AMD получать разрешение на любые продажи ИИ-ускорителей у американских властей. По данным Bloomberg, сегодня их покупают более 40 стран. Специфика получения разрешений зависела бы от того, как много вычислительных мощностей необходимо компании. По данным Bloomberg, для тех, кто хотел бы купить до 1 тыс. новейших NVIDIA GB300, потребовалась бы довольно простая процедура проверки для получения вендором экспортной лицензии. Более крупных покупателей ожидали бы серьёзные предварительные проверки с раскрытием бизнес-моделей и разрешением для американских властей посещать площадки размещения ускорителей.
Источник изображения: Tim Mossholder/unsplash.com Наконец, для действительно крупных клиентов, желавших купить более 200 тыс. GB300 на одну компанию в одной стране, требовалось участие в сделке местного правительства. США предполагали продажи в таких объёмах только союзникам, которые обещали бы строго соблюдать требования безопасности и инвестировали бы в американскую ИИ-индустрию. Для примера — порядка 200 тыс. GB300 британская Nscale, сдающая ускорители в аренду, намерена предоставить Microsoft на четырёх площадках в США и Европе. Заявляется, что это «один из крупнейших инфраструктурных ИИ-контрактов, когда-либо подписанных». Ранее издание Bloomberg подчёркивало, что законопроект могут в любое время отменить или полностью «отправить на полку». В случае принятия закона это стало бы одним из ключевых элементов новой стратегии экспорта ИИ-чипов после того, как администрация Трампа в прошлом году отказалась от подхода, применявшегося при Байдене. В ответ на запрос СМИ Министерство торговли США заявило на днях, что США не намерены возвращаться к прежней системе регулирования, которая была названа «обременительной, чрезмерной и катастрофической». При этом ныне отозванный законопроект предполагал расширение роли подразделения Министерства торговли США, занимавшегося лицензированием, для проведения индивидуальных проверок экспорта чипов производителями уровня NVIDIA и AMD. Предполагалось, что выдача разрешений зависела бы от целого ряда факторов, включая наличие межправительственных соглашений и то, сколько вычислительных мощностей требовалось бы конечным покупателям. В мае 2025 года Трамп отменил введённые ещё при Байдене правила экспортного контроля, фактически делившие покупателей из разных стран на «сорта». Например, неограниченный доступ к покупке получали даже не все страны Евросоюза. Какова была бы практика в соответствии с новым законом, неизвестно. Не исключено, что новый вариант законопроекта будет рассмотрен в будущем. Пока же США несколько ослабили контроль, не так давно разрешив поставлять в Китай относительно устаревшие ускорители NVIDIA H200, которые всё ещё очень востребованы в Поднебесной.
16.03.2026 [10:45], Владимир Мироненко
d-Matrix и Gimlet Labs в 10 раз ускорят инференс агентного ИИКомпании d-Matrix и Gimlet Labs сообщили о решении объединить усилия с целью повышения производительности и энергоэффективности инференса для задач агентного ИИ в режиме реального времени. В рамках партнёрства Gimlet интегрирует ускорители d-Matrix Corsair в облако Gimlet Cloud наряду с традиционными GPU. В гибридной архитектуре GPU будут отвечать за ресурсоёмкие этапы инференса, в то время как операции, чувствительные к памяти и задержкам, будут обрабатывать Corsair. Компании сообщили, что совместное решение может обеспечить до десятикратного улучшения задержки и пропускной способности на ватт по сравнению с использованием только GPU. Согласно пресс-релизу, решение «идеально подходит для рабочих нагрузок, чувствительных к задержке, включая спекулятивное декодирование, которое часто используется в крупномасштабных развёртываниях ИИ для снижения задержки». Corsair поставляется в виде стандартной карты PCIe с воздушным охлаждением, что позволяет быстро устанавливать решение в ЦОД внутри существующих серверов с GPU без специальных корпусов или нестандартных систем трубопроводов. Сетевые карты d-Matrix Jetstream передают данные между Corsair и GPU по стандартному Ethernet, упрощая интеграцию в масштабах инфраструктуры и повышая эффективность использования. Заин Асгар (Zain Asgar), сооснователь и генеральный директор Gimlet Labs, заявил, что «аппаратное обеспечение d-Matrix — идеальное решение для тех этапов инференса, на которых GPU тратят энергию впустую». «Используя Corsair для таких сценариев использования, как спекулятивное декодирование, мы можем обеспечить нашим клиентам значительно более высокую производительность при тех же габаритах», — добавил он. Программный стек Gimlet интеллектуально распределяет и сопоставляет рабочие нагрузки агентов между различными ускорителями от разных производителей, поколений и архитектур, запуская каждый сегмент на наиболее оптимальном оборудовании. ЦОД Gimlet включают в себя различные типы оборудования и соединяют их высокоскоростными межсоединениями для обслуживания передовых лабораторий и других компаний, занимающихся разработкой ИИ. Аналитик Мэтт Кимбалл (Matt Kimball) из Moor Insights & Strategy сообщил ресурсу Data Center Knowledge, что ключевым моментом является сочетание специализированного оборудования и программной оркестровки. «Архитектура d-Matrix разработана с учётом эффективности инференса, а не масштабируемости обучения, что соответствует рынку по мере внедрения приложений ИИ в производство, — сказал Кимбалл. — Но одного оборудования недостаточно — такие платформы, как Gimlet, стремятся упростить развёртывание и легко интегрироваться в существующие рабочие процессы. Именно это делает данное решение привлекательным». Аналитик добавил, что реальная ценность решения заключается в уровне абстракции, который предоставляет Gimlet, позволяя запускать рабочие нагрузки на гетерогенных чипах без переписывания кода. «Рабочие нагрузки в области ИИ становятся всё более гетерогенными, но большая часть инфраструктуры по-прежнему оптимизирована под один тип ускорителя», — отметил он. По его словам, если Gimlet сможет упростить разработчикам развёртывание на нескольких чипах, это обеспечит реальное повышение эффективности системы. «Успешные платформы — это те, которые разработчики могут использовать, не задумываясь об оборудовании», — считает Кимбалл. Компании планируют предоставить своё объединённое решение отдельным клиентам через Gimlet Cloud во второй половине 2026 года. Data Center Knowledge отметил, что это также подчёркивает более широкую тенденцию в инфраструктуре ИИ: гетерогенные системы, вероятно, будут доминировать на следующем этапе развёртывания ИИ, и успех будет зависеть как от оркестрации ПО, так и от производительности оборудования. |
|

