Материалы по тегу: hardware

17.03.2026 [22:28], Андрей Крупин

В России утверждён план развития высокопроизводительных вычислений и суперкомпьютерной инфраструктуры

Правительство РФ утвердило план мероприятий, в рамках которого будут создаваться дополнительные условия для развития суперкомпьютерных технологий, искусственного интеллекта и вычислительных систем. Документ включает конкретные сроки мероприятий и их исполнителей, а также предполагает десятикратное увеличение совокупной мощности отечественных суперкомпьютеров к 2030 году.

Согласно дорожной карте, в ближайшие несколько лет в России должна начаться реализация масштабной программы, включающей комплекс мероприятий, направленных на формирование единых требований к суперкомпьютерным центрам коллективного пользования, определение порядка предоставления доступа к ним научного сообщества и ключевых организаций промышленности, а также перспектив их дальнейшего развития и модернизации. В процессе работы по этому направлению планируется сформировать стратегию дальнейшего развития и правила функционирования национальной исследовательской компьютерной сети нового поколения, которая объединяет сотни ведущих вузов и научных организаций. Предполагается, что развитие коммуникационной инфраструктуры расширит возможности для проведения исследований, требующих обработки и передачи больших объёмов данных.

 Суперкомпьютер «Политехник РСК Торнадо» производства группы компаний РСК, установленный в Санкт-Петербургском политехническом университете Петра Великого (источник изображения: «РСК Технологии» / rscgroup.ru)

Суперкомпьютер «Политехник РСК Торнадо» производства группы компаний РСК, установленный в Санкт-Петербургском политехническом университете Петра Великого (источник изображения: «РСК Технологии» / rscgroup.ru)

Часть мероприятий дорожной карты направлена на разработку концепции профильной федеральной научно-технической программы, в рамках которой будет предусмотрено создание, развитие и внедрение отечественных алгоритмов, методов и программного обеспечения для проведения суперкомпьютерных вычислений в различных отраслях экономики. Научно-техническая программа в том числе подразумевает формирование новых и развитие имеющихся образовательных и дополнительных профессиональных программ по использованию суперкомпьютерных технологий и высокопроизводительных вычислений.

По мнению «К2 НейроТех» (входит в «К2Тех»), утверждение дорожной карты — важный сигнал для всего рынка. Ключевой вызов для промышленного ИИ сегодня — не отсутствие моделей, а дефицит доступных вычислительных мощностей и зрелой инфраструктуры для их эксплуатации. При этом важно разделять два типа нагрузки: обучение моделей, требующее пиковых мощностей, и инференс — постоянную эксплуатацию, которая по мере зрелости рынка будет занимать всё большую долю вычислительных затрат. Без учёта этой специфики даже десятикратный рост мощностей может не дать ожидаемого экономического эффекта: «Особенно важно, что в дорожной карте уделено внимание подготовке кадров и развитию национальной исследовательской сети — без этого даже самые мощные суперкомпьютеры останутся невостребованными».

Постоянный URL: http://servernews.ru/1138459
17.03.2026 [19:23], Руслан Авдеев

AWS и NVIDIA расширят сотрудничество: в следующие 12 месяцев AWS внедрит более 1 млн ИИ-ускорителей NVIDIA

В ходе конференции NVIDIA GTC 2026 компании AWS и NVIDIA анонсировали расширение технологического сотрудничества. Речь идёт о взаимодействии в сфере ускоренных вычислений, технологий интерконнекта, настройки ИИ-моделей и инференса.

Основные планы сотрудничества включают использование AWS в облачных регионах по всему миру более 1 млн новых ИИ-ускорителей NVIDIA, в т.ч. семейств Blackwell и Rubin. AWS уже предлагает облачные инстансы на основе ускорителей NVIDIA для ИИ и машинного обучения. Также продолжается сотрудничество в сфере сетевых технологий NVIDIA Spectrum.

Ведётся подготовка к запуску новых инстансов EC2 на основе ускорителей NVIDIA RTX Pro 4500 Blackwell Server Edition. AWS станет первым крупным облачным провайдером, анонсировавшим поддержку этих ускорителей. Эти инстансы предназначены для аналитики, «говорящих» ИИ-систем, генерации контента, рекомендательных систем, видеостриминга, видеорендеринга и др.

Они будут построены на архитектуре AWS Nitro System, позволяющей полностью использовать ресурсы выделенного оборудования для пользовательских задач. Также Nitro System обеспечивает высокий уровень безопасности — доступ к данным и рабочим процессам получают только сами пользователи, его не имеют даже сотрудники AWS. При этом система обновляется и оптимизируется без остановки работы.

С ростом инфраструктуры ключевой проблемой становится взаимодействие между ускорителями NVIDIA и AWS Trainium. Компании объявили о поддержке библиотеки NVIDIA Inference Xfer Library (NIXL) и AWS Elastic Fabric Adapter (EFA), что позволяет ускорить распределённый инференс ИИ-моделей на Amazon EC2. Подобная архитектура распределённого инференса позволяет эффективно совмещать вычисления и передачу данных, снижать задержки и максимизировать использование ИИ-ускорителей. NIXL с EFA интегрируются с популярными открытыми фреймворками, включая NVIDIA Dynamo, vLLM и SGLang.

 Источник изображения: AWS

Источник изображения: AWS

Дополнительно AWS и NVIDIA объявили об использовании Apache Spark в конфигурации Amazon EMR на Amazon EKS с инстансами G7e на основе ускорителей NVIDIA RTX Pro 6000 Blackwell, что втрое ускоряет аналитику данных. При этом сохраняется совместимость с имеющимися приложениями Spark.

Наконец, компании объявили о расширении поддержки ИИ-моделей NVIDIA Nemotron в облаке Amazon Bedrock с адаптацией моделей для юриспруденции, здравоохранения, финансов и других специализированных областей. Вся инфраструктура управляется Bedrock, что значительно упрощает задачи разработчиков. Вскоре ожидается появление гибридной MoE-модели NVIDIA Nemotron 3 Super для финансовых сервисов, кибербезопасности, ретейла, разработки ПО и др.

В целом компании создали полный стек ИИ-инфраструктуры — от ИИ-ускорителей и сетей до управляемых сервисов. Это позволит клиентам быстрее внедрять ИИ-решения, не конструируя инфраструктуру из разрозненных компонентов.

Как сообщает Datacenter Dynamics, в феврале 2026 года глава AWS Мэтт Гарман (Matt Garman) заявил, что компания всё ещё использовала устаревшие ускорители NVIDIA A100 в некоторых серверах, поскольку спрос был высок даже на них.

Широкий доступ к NVIDIA Blackwell Ultra появился в декабре 2025 года, в скором будущем планируется организовать доступ и к ускорителям Rubin. В то же время компания намерена инвестировать в собственные ускорители Trainium. В феврале OpenAI объявила, что будет использовать 2 ГВт мощностей на основе Trainium и других ускорителей в облаке AWS, во многом благодаря $50 млрд инвестиций со стороны Amazon.

Постоянный URL: http://servernews.ru/1138419
17.03.2026 [16:22], Андрей Крупин

В России прошли первые биржевые торги услугами ЦОД

Оператор сети дата-центров 3data сообщил о завершении первых биржевых торгов услугами по размещению оборудования (colocation) на Бирже ЦТС, которые состоялись 5 марта 2026 года. Победителем стало АО «Уиллстрим», ведущее деятельность в сфере профессионального аутсорсинга колл-центров. Результатом торгов стало заключение биржевого договора на размещение оборудования в центре обработки данных.

Предметом торгов являлись стойко-места 3data, расположенные в московском дата-центре «М8» уровня надёжности Tier III. В аукционе приняли участие российские коммерческие организации, продемонстрировав высокий уровень интереса к данному механизму закупки. Итоговая стоимость единицы лота составила 201,3 тыс. руб. с НДС ежемесячно за стойко-место с подведённой мощностью 5 кВт, включая стойку и два блока розеток (PDU).

 Источник изображения: 3data.ru

Источник изображения: 3data.ru

«Первые биржевое размещение услуг colocation открывает принципиально новый этап формирования объективной рыночной стоимости таких услуг. Планируем активно расширять ассортимент предложений от операторов дата-центров и привлекать больше участников торгов», — прокомментировали инициативу компании 3data представители Биржи ЦТС.

3data основана в 2013 году и является одним из крупнейших операторов коммерческих дата-центров в России. В отличие от других игроков рынка компания придерживается концепция «ЦОД шаговой доступности», предполагающей размещение вычислительных площадок не в промзонах, а в деловых районах, рядом с офисами клиентов. В настоящий момент 3data располагает 24 собственными дата-центрами, расположенными в Москве, Московской области, Екатеринбурге, Ставрополе, Новосибирске, Владивостоке и Южно-Сахалинске.

Постоянный URL: http://servernews.ru/1138434
17.03.2026 [11:02], Руслан Авдеев

Meta✴ потратит до $27 млрд на ИИ-инфраструктуру Nebius

Meta Platforms в течение пяти лет намерена заплатить $27 млрд за ИИ-инфраструктуру, доступ к которой предоставит облачный провайдер Nebius Group, базирующийся в Нидерландах, сообщает Bloomberg. В Meta подтвердили сделку с Nebius.

Nebius — стратегический партнёр NVIDIA, с 2027 года предоставит Meta мощности ЦОД на $12 млрд, ещё до $15 млрд Meta потратит на покупку мощностей, которые облачный провайдер строит для сторонних клиентов.

Это один из крупнейших «разовых» контрактов, заключенных Meta, что подчёркивает стремление компании развиваться в сфере ИИ. Недавно появилась информация, что компания сократит более 20 % штата из-за высоких затрат на ИИ-проекты. В 2025 году она уже заключила сделку с Nebius на $3 млрд.

За последние 12 месяцев акции Nebius выросли в цене в четыре раза, а на фоне новостей подорожали на 15 %, а Meta — на 2,8 %.

 Источник изображения: Nebius

Источник изображения: Nebius

Предполагается, что Meta и её крупнейшие конкуренты потратят в 2026 году около $650 млрд на строительство ЦОД и покупку другой инфраструктуры на фоне взрывного роста спроса на ИИ-сервисы в ближайшие годы. Для Meta ИИ в последнее время является ключевым приоритетом и компания вкладывает значительные средства в конкуренцию с OpenAI, Google и др. С начала года заключены соглашения с NVIDIA и AMD о создании ИИ-инфраструктуры. Кроме того, Meta разрабатывает и собственные ИИ-ускорители.

В 2025 году заявлялось, что к 2028 году Meta потратит на инфраструктурные инициативы в США $600 млрд. Для этого она будет использовать средства, вырученные от рекламного бизнеса и внешнее финансирование. Компания разрабатывает также и собственные ИИ-модели и др.

 Источник изображения: Bloomberg

Источник изображения: Bloomberg

Nebius, отделившаяся от «Яндекса» в 2024 году, — один из немногих новичков, очень успешно воспользовавшихся бумом ИИ-технологий; при этом немаловажную роль играет NVIDIA, активно инвестирующая в стартапы, конкурирующие с гиперскейлерами вроде Google и Amazon (AWS). На днях NVIDIA объявила о намерении инвестировать в Nebius $2 млрд, что привело к росту акций последней на 16 %.

Значительная часть инвестиций NVIDIA была направлена компаниям, покупающим её собственные чипы. Это вызвало критику экспертов рынка, опасающихся, что такие инвестиции подпитывают создание ИИ-пузыря.

Например, в январе NVIDIA сообщила об инвестициях $2 млрд в неооблачного провайдера CoreWeave, конкурирующего с Nebius, средства предназначались на внедрение ИИ-ускорителей самой NVIDIA.

В 2026 году компания вложила $30 млрд в OpenAI, а также принимала участие в очередном раунде финансирования британской Nscale, желавшей привлечь $2 млрд.

В январе сообщалось, что затраты Meta на связанные с ИИ расходы в 2026 году составят от $115 до $135 млрд, это превышает прогнозы аналитиков в $110,7 млрд и почти вдвое больше, чем капитальные затраты компании в 2025 году, которые составили $72,2 млрд. Роста затрат направлен на поддержку подразделения Meta Superintelligence Labs (MSL), а также основной повседневной деятельности компании.

Постоянный URL: http://servernews.ru/1138401
17.03.2026 [10:32], Руслан Авдеев

NVIDIA анонсировала Space-1 Vera Rubin Module — основа для орбитальных ЦОД, которая в 25 раз быстрее H100

Глава NVIDIA Дженсен Хуанг (Jensen Huang) в ходе конференции GTC 2026 представил космический вычислительный модуль на архитектуре Vera Rubin. По его словам, модуль до 25 раз производительнее, чем вариант NVIDIA H100, и шесть коммерческих космических компаний уже внедрили платформу, сообщает Tom’s Hardware.

Space-1 Vera Rubin Module предназначен для орбитальных дата-центров, работающих с ИИ-моделями непосредственно в космосе. Он имеет тесно интегрированную архитектуру CPU–GPU и высокоскоростной интерконнект для работы с большими потоками данных от космических инструментов в режиме реального времени.

Также предлагается вариант NVIDIA IGX Thor для критически важных периферийных сред с поддержкой выполнения ИИ-задач в режиме реального времени, безопасной загрузки, автономных операций и др. Наиболее компактный вариант NVIDIA Jetson Orin предназначается для самых компактных устройств и рассчитан на использование в спутниках с ограниченными размерами, весом и энергопотреблением — для систем бортового «зрения», навигации и обработки данных с датчиков.

Для Земли NVIDIA предлагает ускорители RTX PRO 6000 Blackwell Series Server Edition для геопространственной разведки. Заявленная производительность — при обработке больших массивов изображений в 100 раз выше, чем у устаревших систем на базе CPU.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

По данным NVIDIA, сейчас её новые платформы на Земле и в космосе используют компании Aetherflux, Axiom Space, Kepler Communications, Planet Labs PBC, Sophia Space и Starcloud, Kepler внедряет Jetson Orin в своей спутниковой группировке для управления данными и их маршрутизацией с помощью ИИ-инструментов. NVIDIA Jetson Orin применяется непосредственно в спутниках.

В октябре 2025 года основатель Amazon и Blue Origin Джефф Безос (Jeff Bezos) прогнозировал, что через 10–20 лет на орбите появятся ЦОД гигаваттного масштаба. Основными преимуществами таких решений назывались возможность непрерывного электроснабжения группировки с помощью солнечной энергии, а также упрощённая система охлаждения в космосе. Starcloud уже строит специальные орбитальные ИИ-ЦОД, предназначенные для обучения моделей и инференса непосредственно на орбите.

ИИ-ускорители IGX Thor, Jetson Orin и RTX PRO 6000 Blackwell Server Edition уже доступны клиентам NVIDIA. Дата начала продаж Vera Rubin Space Module до сих пор неизвестна: заявляется, что модуль появится в продаже «позже».

Космические ЦОД — весьма перспективное направление в сфере ИИ. Одним из наиболее громких событий стала заявка SpaceX, попросившей у американских властей разрешение на вывод на орбиту миллиона микро-ЦОД. Инициатива подверглась критике Amazon как «спекулятивная», но компания столкнулась с критикой Федеральной комиссии по связи с США, потребовавшей навести порядок в собственном космическом бизнесе.

Постоянный URL: http://servernews.ru/1138399
17.03.2026 [10:21], Сергей Карасёв

NVIDIA представила центральные процессоры Vera с 88 ядрами Olympus для ИИ и не только

Компания NVIDIA анонсировала процессоры Vera, спроектированные с прицелом на современные ресурсоёмкие задачи в области ИИ. Изделия, как утверждается, обеспечивают исключительную производительность каждого ядра, а также высокую пропускную способность памяти и коммутационной сети.

В основу Vera положены ядра Olympus — это первые CPU-решения NVIDIA, специально разработанные для дата-центров. Olympus используют 10-битный интерфейс выборки и декодирования инструкций, а также нейронный алгоритм предсказания ветвлений, позволяющий оценивать два варианта ветвления за каждый цикл. Изделие полностью совместимо с набором инструкций Arm v9.2 и существующим ПО.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Конфигурация Vera предусматривает наличие 88 ядер Olympus с возможностью одновременной обработки до 176 потоков инструкций. Объём кеша L3 составляет 162 Мбайт. Задействована шина NVIDIA Scalable Coherency Fabric (SCF) второго поколения, первоначально разработанная для CPU семейства NVIDIA Grace. В составе процессора SCF отвечает за связь вычислительных ядер Olympus с общим кешем L3 и подсистемой памяти, обеспечивая стабильную задержку и пропускную способность на уровне 3,4 Тбайт/с: это позволяет использовать более 90 % пиковой пропускной способности памяти под нагрузкой. Каждому ядру Olympus доступна полоса до 14 Гбайт/с, что примерно в три раза превышает пропускную способность на ядро ​​в традиционных CPU для дата-центров.

В составе Vera применяется подсистема памяти LPDDR5X на основе модулей SOCAMM (Small Outline Compression Attached Memory Modules). Суммарная ёмкость может составлять до 1,5 Тбайт, что втрое больше по сравнению с решениями предыдущего поколения. Пропускная способность памяти достигает 1,2 Тбайт/с, тогда как энергопотребление составляет менее 50% по сравнению с традиционными конфигурациями DDR. При этом модули SOCAMM являются заменяемыми, что упрощает модернизацию и обслуживание систем.

Процессор Vera выполнен на основе единого монолитного вычислительного кристалла. Каждое ядро обеспечивается единообразной пропускной способностью. Большинство операций, чувствительных к задержкам, выполняются локально, что позволяет минимизировать межкристальный трафик, который обычно присутствует в традиционных CPU. В целом, как утверждается, реализованные архитектурные особенности позволяют чипам Vera демонстрировать до 1,5 раз более высокую производительность одного ядра по сравнению с конкурирующими решениями x86 при выполнении задач в песочнице с максимальной нагрузкой на сокет.

NVIDIA разработала семейство платформ на базе Vera для решения разнообразных задач в сфере ИИ. Это, в частности, CPU-стойки с жидкостным охлаждением, а также системы с GPU поколения Rubin. Устройства на базе Vera будут поставляться крупными OEM-производителями, включая Cisco, Dell, HPE, Lenovo и Supermicro. Такие машины станут доступны во II половине текущего года. 

Постоянный URL: http://servernews.ru/1138398
17.03.2026 [02:00], Владимир Мироненко

ИИ-ускорители Groq прописались в платформе NVIDIA Vera Rubin

NVIDIA объявила о том, что платформа Vera Rubin, объединяющая теперь уже семь различных чипов (ещё в январе их было шесть), которые вместе откроют новые горизонты агентного ИИ, запущена в производство. Платформа включает Arm-процессоры Vera, ускорители Rubin, интерконнект NVLink 6, адаптеры ConnectX-9 SuperNIC и DPU BlueField-4, а также Ethernet-коммутаторы Spectrum/Quantum-6. Седьмым чипом стал LPU Groq 3 — NVIDIA купила Groq за рекордные $20 млрд всего три месяца назад и активно наращивает производство LPU.

Благодаря такому сочетанию компонентов платформа обеспечивает обработку ИИ-нагрузок на всех этапах — от масштабного предварительного обучения, постобучения и масштабирования во время тестирования до инференса агентных задач в реальном времени, говорит NVIDIA. «Vera Rubin — это скачок в развитии — семь прорывных чипов, пять стоек, один гигантский суперкомпьютер — созданный для обеспечения всех этапов работы ИИ», — сообщил Дженсен Хуанг (Jensen Huang), основатель и генеральный директор NVIDIA. Он отметил, что с появлением Vera Rubin в развитии агентного ИИ наступил переломный момент, положившей начало «крупнейшему в истории развёртыванию инфраструктуры».

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

«Платформа NVIDIA Vera Rubin предоставляет нам вычислительные ресурсы, сетевые возможности и системную архитектуру, позволяющие продолжать работу, одновременно повышая безопасность и надёжность, на которые полагаются наши клиенты», — подтвердил Дарио Амодеи (Dario Amodei), генеральный директор и соучредитель Anthropic. «Инфраструктура NVIDIA — это основа, которая позволяет нам расширять границы ИИ, — заявил Сэм Альтман (Sam Altman), генеральный директор OpenAI. — С NVIDIA Vera Rubin мы будем запускать более мощные модели и агентов в огромных масштабах и предоставлять более быстрые и надёжные системы сотням миллионов людей».

Как отметила компания, Vera Rubin предлагает самую обширную комплексную ИИ-платформу — суперкомпьютер с множеством стоек, специально разработанных для ИИ, работающих как одна массивная, целостная система. NVIDIA Vera Rubin NVL72 обеспечивает высокую эффективность в обучение больших MoE-моделей с использованием вчетверо меньшего количества ускорителей по сравнению с платформой Blackwell и достижение до 10 раз большей пропускной способности инференса на ватт при в десять раз меньшей стоимости токена.

CPU-стойка Vera — это высокоплотная MGX-платформа с СЖО, объединяющая 256 процессоров Vera для обеспечения масштабируемой, энергоэффективной производительности с первоклассной однопоточной обработкой, что обеспечивает возможности для масштабируемого агентного ИИ. Стойки Vera имеют тесную синхронизацию сред во всей ИИ-фабрике. Вместе со стойками Rubin они обеспечивают основу крупномасштабных систем агентного ИИ и обучения с подкреплением — при этом Vera обеспечивает результаты в два раза эффективнее и наполовину быстрее, чем традиционные CPU (впрочем, в NVL8 по-прежнему будут Intel Xeon).

Стойки Groq 3 LPX (тоже с СЖО и тоже на базе MGX) и Vera Rubin, разработанные для обеспечения низкой задержки и обработки больших контекстов, необходимых для агентных систем, обеспечивают до 35 раз более высокую пропускную способность инференса на мегаватт и до 10 раз больший потенциал дохода для моделей с триллионами параметров. В масштабе предприятия парк LPU функционирует как единый гигантский процессор для быстрого и детерминированного ускорения инференса.

Стойка LPX с 256 LPU-чипами имеет 128 Гбайт SRAM с агрегированной пропускной способностью 640 Тбайт/с. В сочетании с Vera Rubin NVL72 чипы LPU повышают эффективность декодирования, совместно вычисляя каждый слой модели ИИ для каждого выходного токена. Всё это позволяет работать с моделями с триллионами параметров и контектсным окном в миллионы токенов, сохраняя максимальную эффективность по энергопотреблению, памяти и вычислительным ресурсам. Любопытно, что Rubin CPX в этот раз NVIDIA решила особо не упоминать.

Анонсированная вместе с Vera Rubin СХД BlueField-4 STX разработана специально для ИИ-нагрузок, обеспечивая бесперебойное расширение памяти GPU по всему POD-кластеру. Впрочем, теперь компания говорит, что BlueField-4 включает CPU Vera, а не Grace, и ConnectX-9 SuperNIC. STX обеспечивает высокоскоростной общий слой данных, оптимизированный для хранения и извлечения больших объёмов KV-кеша, генерируемых LLM и рабочими процессами агентного ИИ. А программная платформа DOCA Memos позволяет использовать выделенное KV-хранилище для увеличения пропускной способности инференса до пяти раз, также повышая энергоэффективность по сравнению с архитектурами хранения общего назначения.

Также NVIDIA совместно с более чем 200 партнёрами анонсировала платформу NVIDIA DSX для Vera Rubin, которая включает технологию DSX Max-Q, позволяющую динамически управлять питанием всей ИИ-фабрики целиком, позволяя увеличить на 30 % ИИ-инфраструктуру в ЦОД при том же энергопотреблении. ПО DSX Flex обеспечивает ИИ-фабрикам гибкость в работе с энергосетями, позволяя освоить до 100 ГВт неиспользуемой мощности сетей. Кроме того, NVIDIA выпустила эталонный проект Vera Rubin DSX AI Factory — схему для совместно разработанной ИИ-инфраструктуры, которая максимизирует количество токенов на ватт и общую пропускную способность, повышая отказоустойчивость системы и ускоряя развётывание.

 В Microsoft Azure появились первые Vera Rubin (Источник изображения: X/@satyanadella)

В Microsoft Azure появились первые Vera Rubin (Источник изображения: X/@satyanadella)

Продукты на базе Vera Rubin будут доступны у партнёров NVIDIA, начиная со II половины этого года. В их число входят гиперскейлеры AWS, Google Cloud, Microsoft Azure и Oracle Cloud, а также партнёры NVIDIA Cloud — CoreWeave, Crusoe, Lambda, Nebius, Nscale и Together AI. Ожидается, что широкий спектр серверов на базе продуктов Vera Rubin будут поставлять глобальные производители систем Cisco, Dell Technologies, HPE, Lenovo и Supermicro, а также Aivres, ASUS, Foxconn, GIGABYTE, Inventec, Pegatron, Quanta Cloud Technology (QCT), Wistron и Wiwynn.

Постоянный URL: http://servernews.ru/1138393
16.03.2026 [11:05], Сергей Карасёв

Рынок СХД в 2025 году достиг рекордного объёма в $33 млрд

Компания IDC обнародовала результаты исследования мирового рынка СХД корпоративного класса в IV квартале и 2025 году в целом. Отрасль демонстрирует рост, обусловленный расширением инфраструктур дата-центров на фоне стремительного внедрения ИИ и переноса рабочих нагрузок в облако.

В период с октября по декабрь включительно продажи СХД достигли $9,7 млрд, что на 5,5 % больше по отношению к последней четверти 2024-го. Самые высокие темпы роста зафиксированы в сегменте массивов All Flash — плюс 18,1 % в годовом исчислении. Решения на основе HDD показали прибавку в размере 3,1 %, тогда как поступления от гибридных систем на базе SSD/HDD снизились на 6,7 %.

 Источник изображения: IDC

Источник изображения: IDC

В ценовом разрезе наиболее быстрорастущим сегментом остаются СХД среднего класса стоимостью от $25 тыс. до 250 тыс.: их продажи в деньгах поднялись в IV квартале 2025 года на 8,5 %, а доля оказалась на уровне 66 % от общего объёма рынка. Системы высокого класса (дороже $250 тыс.) показали прибавку в размере 5,4 %. Спрос на решения начального уровня (дешевле $25 тыс.) сократился на 6,9 %.

В рейтинге ведущих производителей лидирует Dell Technologies, у которой продажи в последней четверти 2025 года достигли $2,29 млрд, поднявшись на 7,0 % год к году: компания заняла 23,7 % рынка. На втором месте располагается Huawei с $1,22 млрд (плюс 4,9 % год к году) и 12,6 %. Замыкает тройку NetApp, увеличившая продажи на 3,6 % — до $789,13 млн, что соответствует доли в 8,1 %. В первую пятёрку также входят Everpure и IBM с $691,03 млн и $609,76 млн и 7,1 % и 6,3 % соответственно.

В географическом плане Китай и США показали самый существенный рост — на 8,0 % и 6,9 % по сравнению с IV кварталом 2024 года. В регионе EMEA (Европа, Ближний Восток и Африка) продажи поднялись на 4,3 %, в Латинской Америке — на 1,8 %, в Японии — на 0,8 %. В странах APeJC (Азиатско-Тихоокеанский регион за исключением Китая и Японии) показатель снизился на 0,1 %, а в Канаде спрос упал на 0,8 %.

По итогам 2025 года в целом объём глобального рынка СХД достиг $33 млрд, что стало новым рекордом. По сравнению предыдущим годом показатель поднялся на 3,9 %. 

Постоянный URL: http://servernews.ru/1138354
16.03.2026 [10:54], Руслан Авдеев

Reuters: Meta✴ планирует уволить каждого пятого, чтобы компенсировать расходы на ИИ-проекты

Компания Meta намерена провести масштабные сокращения штата, способные затронуть 20 % сотрудников или даже более. Предполагается, что это поможет компенсировать большие расходы на создание ИИ-инфраструктуры и «подготовиться» к повышению эффективности, связанному с массовым внедрением ИИ, сообщает Reuters со ссылкой на три источника, знакомых с вопросом.

Источники свидетельствуют, что точная дата сокращений ещё не названа и их масштабы ещё не определены. По некоторым сведениям, топ-менеджмент недавно уведомил ряд других руководителей Meta о предстоящих событиях и поручил начать планирование сокращения расходов. В самой компании поспешили заявить, что речь идёт о «спекулятивных заявлениях» и «теоретических выкладках».

Если Meta согласует увольнение 20 % сотрудников, это станет самым значимым для компании раундом сокращений с момента реструктуризации в конце 2022 — начале 2023 года. Этот период тогда назывался «годом эффективности», когда было уволено в общей сложности более 20 тыс. человек. По последним данным, на 31 декабря 2025 года в компании работало около 79 тыс. человек.

В последнее время глава Meta Марк Цукерберг (Mark Zuckerberg) поощряет более активное участие компании в ИИ-проектах. Для привлечения лучших специалистов в области ИИ предлагаются крупные компенсационные пакеты: выплаты новой команде для создания «суперинтеллекта» на ближайшие четыре года оценивались в сотни миллионов долларов.

 Источник изображения: Allef Vinicius/unsplash.com

Источник изображения: Allef Vinicius/unsplash.com

Более того, компания заявляла о намерении инвестировать $600 млрд в строительство ЦОД к 2028 году. Не так давно сообщалось, что компания тратит не менее $2 млрд на покупку китайского ИИ-стартапа Manus и др. При этом Цукерберг ещё в январе 2026 года подчёркивал, что проекты, ранее требовавшие больших команд, теперь могут выполняться одним очень талантливым человеком.

Запланированные Meta инвестиции в ИИ последовали за рядом неудач с моделями семейства Llama 4 в 2025 году. В конце концов компания отказалась от выпуска крупнейшей версии модели под названием Behemoth, планировавшейся на лето.

В текущем году команда по созданию «сверхразума» работала над восстановлением позиций компании на рынке ИИ, создав модель Avocado, однако и она не оправдала ожиданий.

В январе сообщалось, что затраты компании на связанные с ИИ расходы в 2026 году составят от $115 до $135 млрд, это превышает прогнозы аналитиков в $110,7 млрд и почти вдвое больше, чем капитальные затраты компании в 2025 году, которые составили $72,2 млрд. Роста затрат направлен на поддержку подразделения Meta Superintelligence Labs (MSL), а также основной повседневной деятельности компании.

В том же месяце появилась информация, что Meta создаёт подразделение Meta Compute для строительства ИИ ЦОД на десятки гигаватт, в феврале появились данные, что компания получит миллионы ИИ-ускорителей Google TPU, а в марте — сведения о том, что она представила четыре новых собственных ИИ-ускорителя MTIA с FP8-производительностью до 10 Пфлопс.

Постоянный URL: http://servernews.ru/1138350
16.03.2026 [10:49], Руслан Авдеев

Власти США отозвали законопроект, запрещавший экспорт ИИ-чипов без прямого разрешения американских властей

Министерство торговли США отозвало законопроект, ограничивавший новый порядок экспорта ИИ-чипов в любую точку мира без разрешения американских властей. Электронное уведомление об этом появилось на одном из правительственных сайтов, сообщает Bloomberg.

В прошлую пятницу на сайте Административно-бюджетного управления США (OMB) появилась информация о том, что межведомственная экспертиза документа завершена и документ отозван. При этом никаких других деталей не раскрывается.

Представитель администрации президента США Дональда Трампа (Donald Trump) заявил, что документ действительно представлял собой лишь проект, и все дискуссии, касавшиеся его применения, носили предварительный характер.

Информация о возможном принятии нового закона появилась в начале марта. Новые правила, если бы были приняты, обязывали бы компании вроде NVIDIA и AMD получать разрешение на любые продажи ИИ-ускорителей у американских властей. По данным Bloomberg, сегодня их покупают более 40 стран.

Специфика получения разрешений зависела бы от того, как много вычислительных мощностей необходимо компании. По данным Bloomberg, для тех, кто хотел бы купить до 1 тыс. новейших NVIDIA GB300, потребовалась бы довольно простая процедура проверки для получения вендором экспортной лицензии. Более крупных покупателей ожидали бы серьёзные предварительные проверки с раскрытием бизнес-моделей и разрешением для американских властей посещать площадки размещения ускорителей.

 Источник изображения: Tim Mossholder/unsplash.com

Источник изображения: Tim Mossholder/unsplash.com

Наконец, для действительно крупных клиентов, желавших купить более 200 тыс. GB300 на одну компанию в одной стране, требовалось участие в сделке местного правительства. США предполагали продажи в таких объёмах только союзникам, которые обещали бы строго соблюдать требования безопасности и инвестировали бы в американскую ИИ-индустрию. Для примера — порядка 200 тыс. GB300 британская Nscale, сдающая ускорители в аренду, намерена предоставить Microsoft на четырёх площадках в США и Европе. Заявляется, что это «один из крупнейших инфраструктурных ИИ-контрактов, когда-либо подписанных».

Ранее издание Bloomberg подчёркивало, что законопроект могут в любое время отменить или полностью «отправить на полку». В случае принятия закона это стало бы одним из ключевых элементов новой стратегии экспорта ИИ-чипов после того, как администрация Трампа в прошлом году отказалась от подхода, применявшегося при Байдене.

В ответ на запрос СМИ Министерство торговли США заявило на днях, что США не намерены возвращаться к прежней системе регулирования, которая была названа «обременительной, чрезмерной и катастрофической».

При этом ныне отозванный законопроект предполагал расширение роли подразделения Министерства торговли США, занимавшегося лицензированием, для проведения индивидуальных проверок экспорта чипов производителями уровня NVIDIA и AMD.

Предполагалось, что выдача разрешений зависела бы от целого ряда факторов, включая наличие межправительственных соглашений и то, сколько вычислительных мощностей требовалось бы конечным покупателям.

В мае 2025 года Трамп отменил введённые ещё при Байдене правила экспортного контроля, фактически делившие покупателей из разных стран на «сорта». Например, неограниченный доступ к покупке получали даже не все страны Евросоюза.

Какова была бы практика в соответствии с новым законом, неизвестно. Не исключено, что новый вариант законопроекта будет рассмотрен в будущем. Пока же США несколько ослабили контроль, не так давно разрешив поставлять в Китай относительно устаревшие ускорители NVIDIA H200, которые всё ещё очень востребованы в Поднебесной.

Постоянный URL: http://servernews.ru/1138346

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;