Материалы по тегу:
|
12.05.2026 [14:47], Сергей Карасёв
До 64 Тбайт RAM: HPE представила модульный суперсервер Compute Scale-up Server 3250Компания HPE анонсировала сервер Compute Scale-up Server 3250 на аппаратной платформе Intel для нагрузок, которым требуется большой объём оперативной памяти. Это могут быть резидентные базы данных, аналитические приложения, транзакционные платформы и пр. Новинка выполнена на модульной архитектуре, обеспечивающей гибкое масштабирование. Шасси стандарта 5U рассчитано на четыре процессора Intel Xeon 6700P (до 86 ядер). Доступны 64 слота для модулей оперативной памяти DDR5 ёмкостью до 256 Гбайт каждый: таким образом, суммарный объём ОЗУ может достигать 16 Тбайт. В одну систему могут быть объединены до четырёх серверов, что даст 16 CPU и 64 Тбайт RAM. Платформа управляется внешним контроллером узлов, который отвечает за интерконнект. Доступны различные конфигурации слотов PCIe 5.0 для карт расширения: 4 × FH + 2 × LP, 8 × FH + 4 × LP или 16 × LP. В оснащение входят сетевые контроллеры 1GbE и 10GbE/25GbE (SFP28), оптический привод DVD-RW (опционально) и вентиляторы охлаждения с возможностью горячей замены. Подсистема хранения данных базируется на накопителях E3.S (NVMe), количество которых может достигать 24. Есть три порта USB 3.0 Type-A (один располагается во фронтальной части, два — сзади). Габариты сервера составляют 905 × 445 × 219,2 мм, масса — от 40,82 до 56,7 кг в зависимости от комплектации. Диапазон рабочих температур простирается от +5 до +35 °C. Задействованы блоки питания мощностью 2400 Вт с сертификатом 80 Plus Titanium. Реализованы средства управления HPE Integrated Lights-Out (HPE iLO). Отмечается, что Compute Scale-up Server 3250 — это первый масштабируемый сервер HPE на платформе Xeon 6, имеющий модульную архитектуру, оптимизированную для ресурсоёмких вычислительных задач и агентного ИИ. Кроме того, по словам компании, это первая система в своём класса система, прошедшая валидацию в бенчмарках SAP BW для платформ с 48+ Тбайт RAM. Приём заказов на новинку уже начался. Производитель предоставляет на систему трёхлетнюю гарантию.
12.05.2026 [13:24], Сергей Карасёв
Новое бизнес-подразделение OpenAI поможет клиентам во внедрении ИИГруппа OpenAI Group PBC сформировала бизнес-подразделение OpenAI Deployment Company, которое будет оказывать сторонним заказчикам услуги по внедрению ИИ-моделей и их оптимизации под конкретные задачи. Инвестиции в OpenAI Deployment Company на первом этапе составят $4 млрд при оценке этой структуры в $14 млрд. Средства поступят от самой OpenAI и более чем десяти других инвесторов, крупнейшим из которых является управляющая компания TPG. В раунде также приняли участие SoftBank Group, Bain Capital, Brookfield, Capgemini SE и McKinsey & Co. Контроль над формируемой организацией сохранит за собой OpenAI. Компания обязалась обеспечить минимальную доходность в размере 17,5% для внешних инвесторов OpenAI Deployment Company. Новая структура поможет крупным предприятиям во внедрении ИИ-моделей OpenAI. Для этого на объекты заказчиков будут направляться инженеры по развёртыванию (Forward Deployed Engineer, FDE) — специалисты, обладающие навыками разработки ПО и взаимодействия с клиентами. Такие инженеры выступают в качестве связующего звена между поставщиком продуктов и заказчиком. Внедрение ИИ-моделей на стороне клиента OpenAI намерена осуществлять в рамках многоэтапного процесса. Сначала специалисты оценят возможные варианты применения ИИ на площадке заказчика и разработают наиболее эффективные сценарии использования. Затем будет осуществлено пилотное развёртывание для «небольшого количества приоритетных рабочих процессов»: это поможет продемонстрировать отдачу от применения продуктов OpenAI. На финальном этапе произойдёт полноценное внедрение. Кроме того, по запросу клиента специалисты OpenAI Deployment Company могут осуществить сопутствующие работы, например, интегрировать ИИ-модель с существующими приложениями в IT-инфраструктуре заказчика. Для развития бизнеса OpenAI Deployment Company приобрела лондонскую фирму Tomoro AI Ltd., предоставляющую технологические услуги. В результате этой сделки, финансовые условия которой не раскрываются, OpenAI получила около 150 инженеров FDE и других технических специалистов.
12.05.2026 [13:23], Сергей Карасёв
Dell выпустила ИИ-сервер PowerEdge XE9785 с ускорителями AMD Instinct MI355XКомпания Dell анонсировала сервер PowerEdge XE9785 на аппаратной платформе AMD, предназначенный для ресурсоёмких задач в области ИИ, включая обучение моделей и инференс. Двухсокетное устройство выполнено в форм-факторе 10U и оснащено воздушным охлаждением. Допускается установка двух процессоров AMD EPYC 9005 Turin, насчитывающих до 192 вычислительных ядер. Доступны 24 слота для модулей оперативной памяти DDR5-6400 RDIMM суммарным объёмом до 6 Тбайт. Во фронтальной части могут быть установлены до 16 NVMe-накопителей E3.S (PCIe 5.0) общей вместимостью до 245,76 Тбайт или до 10 NVMe-изделий U.2 суммарной ёмкостью до 153,6 Тбайт. Кроме того, есть два внутренних коннектора для SSD типоразмера М.2. Сервер несёт на борту восемь ускорителей AMD Instinct MI355X с 288 Гбайт памяти HBM3E (8 Тбайт/с). Задействован интерконнект AMD Infinity Fabric. В качестве альтернативного варианта предлагается конфигурация с восемью ускорителями NVIDIA HGX B300 и технологией NVIDIA NVLink. Питание обеспечивают 12 блоков мощностью 3200 Вт с сертификатом 80 Plus Titanium (с возможностью горячей замены). Габариты системы составляют 439,5 × 482,3 × 1044,7 мм, масса — 172,3 кг (с установленными картами MI355X). В зоне GPU находятся 15 вентиляторов, в области CPU — пять (все с поддержкой горячей замены). Среди прочего упомянуты слот OCP 3.0 (PCIe 5.0 x8), два сетевых порта RJ45, интерфейс Mini-DisplayPort, по одному порту USB Type-A и Type-C. Кроме того, компания Dell объявила о возможности использования ускорителей AMD Instinct MI350P в составе своих серверов PowerEdge XE7745 и R7725. Эти устройства рассчитаны на приложения ИИ, платформы виртуализации, базы данных и пр.
12.05.2026 [12:00], Сергей Карасёв
«Базис» представил конструктор платформенных сервисов Basis Automation StudioКомпания «Базис», крупнейший российский разработчик решений для управления динамической ИТ-инфраструктурой, представила конструктор платформенных сервисов Basis Automation Studio (BAS). Решение является частью расширенной конфигурации облачной платформы Basis Dynamix Cloud Control и будет актуально в первую очередь для заказчиков, которые хотят автоматизировать развёртывание сложных ИТ-систем и платформенных сервисов, использующих виртуальную инфраструктуру. Для решения этой задачи Basis Automation Studio предоставляет системным администраторам и архитекторам заказчика инструменты для проектирования, развёртывания и сопровождения платформенных сервисов в виртуальной инфраструктуре. Конструктор позволяет визуально проектировать инфраструктуру на основе готовых компонентов и связей между ними, использовать каталог шаблонов виртуальных инфраструктур и платформенных сервисов, а также расширяемую библиотеку типовых элементов и образцов востребованного ПО, включая ClickHouse, Consul, Docker, MariaDB и PostgreSQL. Basis Automation Studio поддерживает стандартные для облачной инфраструктуры инструменты и подходы, включая архитектуру TOSCA, формат сериализации YAML, систему управления конфигурациями Ansible, язык Python, интерпретатор Bash. Они используются для описания облачной инфраструктуры и управления её компонентами, развёртывания сервисов и их настройки. После развёртывания сервисов администраторы могут создавать day-2 операции для их сопровождения, мониторинга, обновления и поддержания работоспособности. Готовые сервисы можно публиковать на витрине портала самообслуживания, где они доступны для заказа в один клик пользователям облачной инфраструктуры. Для администрирования продукта и разработки шаблонов в BAS предусмотрен веб-интерфейс, включая визуальный редактор сервисов, а также инструменты управления правами и контроля доступа к компонентам инфраструктуры. В Basis Automation Studio реализована иерархическая мультитенантная модель, которая обеспечивает строгую логическую изоляцию ресурсов и детализированное управление доступом. На каждом уровне иерархии могут быть независимо назначены права доступа, роли и разрешения для взаимодействия с конструктором и запущенными с его помощью сервисами. Например, можно разграничить доступ между различными департаментами (или другими бизнес-единицами) одной компании, группируя принадлежащие им проекты и пользовательские учётные записи в специальные контейнеры, называемые доменами. В этом случае пользователи и ресурсы одного домена будут невидимы и недоступны для другого, что помогает заказчику обеспечивать конфиденциальность и сохранность данных в рамках масштабируемой и разветвлённой ИТ-инфраструктуры. Дополнительно Basis Automation Studio предлагает ролевую модель управления пользователями платформы. По умолчанию доступны следующие роли: администратор с полными правами на управление конструктором, архитектор для управления компонентами и сервисами, разработчик компонентов и сервисов, администратор проектов, пользователь. При необходимости одному аккаунту внутри конструктора может быть назначено несколько ролей, в этом случае их права суммируются. В результате заказчик получает простой в то же время достаточно гибкий инструмент для обеспечения безопасности виртуальной инфраструктуры. «Интенсивное развитие облачной платформы Basis Dynamix Cloud Control и, в частности, появление конструктора платформенных сервисов Basis Automation Studio стало нашим ответом на растущий интерес рынка к облачной и гибридной инфраструктурам. Задача Basis Automation Studio — облегчить декларирование облачной инфраструктуры, а также развёртывание внутри неё необходимых для бизнеса ИТ-систем и сервисов, в первую очередь за счёт автоматизации этих процессов. Мы планируем активно развивать наш продукт под задачи российских заказчиков», — отметил Дмитрий Сорокин, технический директор компании «Базис».
12.05.2026 [10:25], Руслан Авдеев
Gartner: суверенное облако могут позволить себе только США и Китай, но не Европа
gartner
hardware
гибридное облако
евросоюз
импортозамещение
информационная безопасность
китай
конфиденциальность
облако
сша
По словам вице-президента Gartner Дугласа Тумбса (Douglas Toombs), создать полностью суверенное облако за пределами США или Китая не представляется возможным. Лишь они располагают необходимыми для этого технологиями, сообщает The Register. Соответствующее заявление Тумбс сделал на недавней конференции в Сиднее. В других странах заказчикам невозможно избежать взаимодействия с иностранными поставщиками. По мнению эксперта, хотя американские поставщики облачных решений предлагают продукты, якобы не подпадающие под действие законов за пределами избранных клиентами стран, в конечном итоге облака принадлежат американским корпорациям, а это значит, что уверенно гарантировать полный суверенитет данных невозможно. В своё время Microsoft уже признала, что защитить пользователей от американских законов она попросту не в силах. Gartner отмечает, что даже «локальные» облака вроде AWS Outposts/Dedicated Local Zone, Azure Local или выделенных облачных регионов Oracle периодически должны устанавливать связь с удалёнными серверами. Эксперт уверен, что попытки создавать суверенные облачные среды всё равно не увенчаются успехом. В пример приводятся европейские проекты Andromeda, Numergy и Gaia-X, которые позволили разве что подготовить несколько хороших научных докладов. Тумбс также сослался на «Правило трёх и четырёх», выведенное в недрах Boston Consulting Group. Оно предполагает, что на стабильном конкурентном рынке не может быть более трёх значимых игроков, при этом доля рынка крупнейшего из них не более чем вчетверо больше доли самого мелкого. По словам Тумбса, в соответствии с этим правилом рынок облачных вычислений «стабилизировался» вокруг «большой тройки»: AWS, Google и Microsoft. Впрочем, Тумбс допустил, что отдельные небольшие облачные платформы способны успешно развиваться, что позволит появиться суверенным поставщикам SaaS и соответствующих продуктов. Тем не менее, он считает, что даже решительные меры для перехода на локальные мощности не освободит их владельцев от зависимости от гиперскейлеров. В пример эксперт привёл медицинскую организацию из Нидерландов, уже попытавшуюся создать суверенную инфраструктуру — перебои в её работе начались после того, как поставщик «суверенного» решения (крупный облачный провайдер) сам столкнулся со сбоем в своём облаке. У европейских структур уже возникли опасения, что американские облачные провайдеры однажды способны покинуть европейскую экосистему, поставив клиентов перед необходимостью поспешной и рискованной миграции. В Gartner утверждают, что «усиление геополитической напряжённости» заставит клиентов гиперскейлеров пересмотреть свои стратегии, а пока немногие всерьёз задумываются о разработке стратегии выхода из чужих облаков, пользователи чрезвычайно привязаны к существующей системе. В Gartner отмечают, что отсутствие стратегии выхода из чужих облаков — одна из десяти крупных ошибок, допускаемых пользователями наряду с началом использования облаков с критически важным и сложным ПО вроде ERP. Кроме того, большой ошибкой будет предполагать, что облако подходит для любых приложений, и ожидать, что каждое приложение получит все преимущества облачной инфраструктуры — от снижения затрат до отказоустойчивости. Также подчёркивается, что глупо предполагать, что переход на мультиоблачную среду повысит надёжность доступа к сервисам. Для этого необходимо сначала решить сложную и дорогую задачу переносимости приложений между облаками. Подчёркивается, что мультиоблачные решения стоит использовать не для страховки от сбоев, а преимущественно для доступа к наиболее привлекательным функциям и сервисам каждого из них. На днях сообщалось, что Евросоюз рассматривает правовые нормы, ограничивающие обработку конфиденциальных данных ЕС американскими облачными провайдерами. В частности, Еврокомиссия должна представить пакет мер, укрепляющих стратегическую автономию блока государств в ключевых цифровых сферах. В апреле Еврокомиссия уже объявила тендер на €180 млн для реализации четырёх европейских проектов в сфере суверенных облачных вычислений. Тем не менее, пока американские гиперскейлеры годами доминируют на европейском облачном рынке. Более того, по оценкам аналитиков, особенно надеяться на изменение ситуации и не стоит.
12.05.2026 [09:35], Сергей Карасёв
Meta✴ готовит пятитонные ИИ-стойки с чипами AMDНекоммерческая организация Open Compute Project (OCP) обнародовала спецификацию серверных стоек Open Rack Wide (ORW) от Meta✴, которая дополняет более общую базовую спецификацию. Стойки разработаны для дата-центров, ориентированных на ИИ и НРС, разработанную Meta✴ и дополняющую базовый вариант стандарта. Стандарт ORW положен в основу платформы AMD Helios. Габариты стоек ORW составляют 2390 мм в высоту, 1219 мм в глубину и 1200 мм в ширину. Таким образом, стойка ORW вдвое шире стандартных стоек Open Rack V3 (600 мм). Конструкция ORW рассчитана на плотное размещение тяжёлого оборудования — крупногабаритных серверов с GPU-ускорителями, мощных СХД и пр. Грузоподъёмность рамы должна составлять 4700 кг (без учёта массы собственно стойки). Подчёркивается, что на показатель влияет множество факторов, включая пространственное распределение IT-оборудования, количество и расположение поперечных распорок и пр. Любые дополнительные элементы, установленные в стойку, необходимо учитывать при расчёте максимальной грузоподъёмности. ORW-стойка рассчитана на 44OU-единицы для узлов удвоенной ширины или 47U для 19″ узлов. Возможно комбинирование различных типов оборудования — конструкция стойки предусматривает наличие вырезов для кронштейнов крепления серверов обоих типов. Также прописана поддержка обычных 21″ шасси, в этом случае ёмкость стойки составляет 88OU. Интересно, что NVIDIA в стойках Kyber перейдёт к вертикальным узлам. Впрочем, компания наверняка тоже отдаст спецификации OCP, как это было со стойкой Oberon. В стойках ORW обеспечивается циркуляция воздуха от фронтальной области к тыльной. В обычных условиях эксплуатации в верхней, нижней и боковых частях не предусмотрены отверстия, через которые горячий воздух может проникать в холодный коридор дата-центра. Конструкция должна включать передний и задний каналы для организации кабелей, которые могут укладываться вертикально во всех четырёх углах рамы. В спецификации сказано, что доступ к высоковольтным линиям на шине постоянного тока должен быть исключен, если она подключена к IT-оборудованию. Стойки ORW совместимы с различными конструкциями шин питания — как с воздушным, так и с жидкостным охлаждением. Интерфейс шинопровода аналогичен ORv3 HPR (High Power Rack). Предполагаемое номинальное входное напряжение, обеспечиваемое модулем питания ORv3, составляет 51 В DC. Вся подсистема питания IT-оборудования должна поддерживать входные напряжения в диапазоне от 46 В до 52 В. Требуются датчики напряжения и температуры, силовой (100 А) и обратный (100 А) каналы, а также заземление. Типовая мощность — до 4,8 кВт на коннектор (узел). Нужно отметить, что OCP продвигает перевод дата-центров на DC-питание. Предполагается, что такая архитектура позволит повысить плотность и энергоэффективность вычислений. Концепция предусматривает возможность выделение подсистемы питания в отдельную стойку и переход к 400/800 В DC с выносом AC/DC-преобразование AC/DC за пределы машинных залов. Передачу энергии планируется осуществлять через общую DC-шину, соединяющую все стойки, или по отдельным кабелям (либо комбинированно). Между тем перед операторами ИИ-дата-центров встаёт проблема, связанная с ростом массы IT-оборудования. Современные стойки 42U с набором серверов весят 680–1150 кг, а для ORW предусмотрена нагрузка до почти 5 т. Из-за этого возникают сложности с обустройством полов и перекрытий. Из-за большой массы оборудования многие операторы предпочитают строить одноэтажные дата-центры вместо многоэтажных. Хотя как раз для ИИ-кластеров с точки зрения интерконнекта эффективнее именно последние. Однако для Meta✴, возможно, важнее скорость развёртывания — она даже обходится без капитального строительства.
12.05.2026 [09:02], Владимир Мироненко
Скандал с контрабандными ИИ-серверами Supermicro не повлиял на её взаимоотношения с AMD, NVIDIA и IntelSupermicro сообщила итоги работы в III квартале 2026 финансового года, завершившемся 31 марта 2026 года. Несмотря на то, что выручка оказалась ниже ожиданий аналитиков, сильный прогноз на IV квартал компании, рассчитывающей на высокий спрос на свои ИИ-серверы, привёл к росту её акций на 18 % на дополнительных торгах. Этот прогноз, вероятно, успокоил инвесторов Supermicro после того, как в марте Министерство юстиции США предъявило обвинения трём лицам, связанным с компанией, в содействии контрабанде в Китай ИИ-чипов на миллиарды долларов, предположило агентство Reuters. Напомним, что после заявления минюста США акционеры подали в суд на Supermicro, обвинив её в мошенничестве с ценными бумагами и сокрытии связи с Китаем. Генеральный директор Supermicro Чарльз Лян (Charles Liang) начал конференцию с аналитиками по итогам завершившегося квартала с разъяснений по поводу этого инцидента, пишет DigiTimes. Он сразу подчеркнул, что Supermicro не является ответчиком или объектом расследования по данному делу. Лян также отметил, что компания сотрудничает с правительством США и лица, упомянутые в обвинительном заключении, были уволены. Кроме того, было начато независимое расследование с привлечением юридической фирмы Munger Tolles & Olson и экспертов AlixPartners. Финансовый директор Дэвид Вейганд (David Weigand) сообщил, что компания в настоящее время не ожидает пересмотра финансовых результатов и готовится подать отчёт 10-Q, хотя всё зависит от результатов расследования. По его словам, исходя из имеющихся результатов проверки, никто из сотрудников, кроме лиц, упомянутых в обвинительном заключении, в этом деле замешан не был, хотя следует дождаться окончания расследования. В ответ на вопросы аналитиков о том, могут ли предъявленные обвинения подорвать отношения Supermicro с клиентами или повлиять на доступность для неё ускорителей NVIDIA, Вейганд заявил, что изменений не произошло. А Лян добавил, что партнёрские отношения с поставщиками, включая NVIDIA, AMD и Intel, остаются прочными. За две недели до этого несколько изданий, ссылаясь на Bluefin Research, сообщили, что Oracle в связи с предъявленными обвинениями отменила заказ у Supermicro на поставку 300–400 стоечных суперускорителей NVIDIA GB300 NVL72 общей стоимостью $1,1–$1,4 млрд. Однако позже ни Oracle, ни Supermicro не подтвердили эту информацию. Источники в цепочке поставок сообщили DigiTimes, что инцидент с контрабандой вызвал волну беспокойства в более широкой экосистеме поставщиков ИИ-серверов, в связи с чем многие компании расширили свои юридические и отделы по соблюдению нормативных требований. NVIDIA дополнительно ужесточила протоколы аудита цепочки поставок, потребовав предоставление отчётности в режиме реального времени на каждом этапе, от отгрузки чипов до сборки, тестирования и окончательной логистики. Более тщательные проверки ведутся относительно структуры собственности и источников финансирования конечных клиентов. При этом все партнёры обязаны предоставлять списки клиентов до размещения заказов на покупку и поддерживать отслеживаемую документацию на всех этапах сборки и отгрузки. Для компаний, управляющих сборочными и интеграционными предприятиями на Тайване и в Юго-Восточной Азии, таких как Supermicro, осуществляющей операции через свои кампусы в Баде (Bade), Таоюане (Taoyuan) и в Малайзии, бремя соблюдения нормативных требований существенно возросло. По данным источников в цепочке поставок, из-за экспортных ограничений США на поставку передовых ИИ-чипов в Китай ИИ-серверы, поставляемые в Поднебесную, могут продаваться по цене вдвое выше отпускной или даже больше. Supermicro сообщила о скорректированной прибыли (Non-GAAP) на разводнённую акцию в размере ¢84, что выше показателя в ¢31 на акцию годом ранее, при выручке в $10,24 млрд, что на 122,7 % больше, чем годом ранее. Аналитики, опрошенные LSEG (согласно данным CNBC), ожидали прибыль в 62 цента на акцию и выручку в $12,33 млрд. Чарльз Лян сообщил, что задержка с признанием выручки в течение квартала была вызвана нехваткой ресурсов у клиентов. «У некоторых клиентов ещё не было необходимого электропитания и сетевого оборудования для развёртывания облачных сервисов, и мы ожидаем получить эту выручку в ближайшие кварталы», — сказал он. Ограничения поставок в масштабах всей отрасли также негативно сказались на результатах, сообщи Дэвид Вейганд. Цены на память резко выросли, в то время как наблюдается дефицит GPU и процессоров Intel, добавил Лян. Вместе с тем он заявил: «Восстановление нашей маржи и быстрый рост нашего бизнеса DCBBS демонстрируют, что наш бизнес остается устойчивым. Благодаря добавлению наших новых производственных мощностей в Кремниевой долине, мы имеем исключительно хорошие возможности для удовлетворения огромного спроса на различные решения в области искусственного интеллекта и корпоративного сектора». Чистая прибыль Supermicro выросла до $483,39 млн или $0,72 на разводнённую акцию со $108,78 млн или $0,17 на разводнённую акцию в аналогичном квартале предыдущего финансового года. Валовая маржа (GAAP) увеличилась до 9,9 %, по сравнению с 9,6 % годом ранее и 6,3 % в предыдущем квартале. Капитальные затраты и инвестиции составили всего $97 млн. Денежные средства и их эквиваленты по состоянию на 31 марта составили $1,3 млрд против $8,8 млрд общей задолженности перед банками и конвертируемыми облигациями. В IV квартале 2026 финансового года, заканчивающемся 30 июня, Supermicro ожидает получить выручку $11–$12,5 млрд, скорректированную прибыль на акцию — от ¢65 до ¢79. Согласно консенсус-прогнозу LSEG, скорректированная прибыль составит 55 центов на акцию, выручка — $11,07 млрд. Компания также повысила прогноз выручки на весь 2026 финансовый год до $38,9–$40,4 млрд.
11.05.2026 [23:59], Руслан Авдеев
Meta✴ пришлось продлить срок службы серверов из-за дефицита памятиMeta✴ вынуждена продлить срок эксплуатации некоторых из своих серверов общего назначения из-за дефицита DRAM с шести до семи лет, сообщает The Wall Street Journal со ссылкой на внутреннюю документацию техногиганта, где говорится о том, что компания не ожидала существенного дефицита поставок оборудования, в основном именно из-за нехватки оперативной памяти, а также жёстких дисков. Предполагается, что дефицит продлится минимум до 2027 года. Ежегодно компания инвестирует огромные средства в инфраструктуру ЦОД и является одним из крупнейших заказчиков серверного оборудования в мире. Однако даже увеличение капзатрат до $125–$145 млрд в этом году не позволяет обновлять серверы прежними темпами. Внутренне моделирование Meta✴ показало, что увеличение срока эксплуатации серверов компании увеличит ожидаемую годовую интенсивность отказов (AFR) с 4,8 % до 7,4 % ежегодно. Такой риск считается приемлемым, хотя до восьми лет срок службы оборудования решили не продлевать. 95 % мирового выпуска DRAM приходится на Samsung Electronics, SK hynix и Micron Technology, которые в последние полтора года делают ставку на увеличение выпуска HBM для ИИ-ускорителей, поскольку такая память значительно маржинальнее обычной серверной DRAM. По оценкам IDC, речь может идти уже не о временном, «циклическом» дефиците, а о стратегическом перераспределении производственных ресурсов. Согласно прогнозам, на HBM в 2026 году придётся порядка 25 % выпуска всех пластин DRAM, спрос на неё растёт приблизительно на 70 % ежегодно.
Источник изображений: Meta✴ В результате цена DDR5 и других модулей резко выросла. Впрочем, с другими компонентами ситуация не лучше. Western Digital уже распродала даже не выпущенные HDD, у Seagate дела тоже идут отлично (для неё самой), а время поставок некоторых моделей серверных процессоров выросло до полугода. Таким образом, один из ключевых мировых покупателей серверного оборудования, в отличие от многих экспертов, не полагается на падение цен на память и другие компоненты к концу 2026 года, а предпочитает увеличить срок эксплуатации уже развёрнутого оборудования. Для более мелких покупателей это может служить сигналом всё более серьёзных проблем с закупками в обозримой перспективе. Если получить достаточно памяти по приемлемой цене не рассчитывает гиперскейлер, прочие могут столкнуться с более длительными сроками поставок, частичным выполнением заказов и значительным ростом цен. Вполне может оказаться, что продление сроков службы оборудования — оптимальный сценарий не только для Meta✴, что, помимо прочего, приведёт к переносу капитальных затрат и замедлению внедрения более энергоэффективных и высокопроизводительных платформ. Более того, дефициту HDD и SSD уделяется намного меньше внимания, чем нехватке DRAM, что, по-видимому, является ошибкой при планировании закупок. Массовая скупка HDD и рост цен на NAND оставляют всё меньше места для манёвра при формировании инфраструктуры для хранения данных. По мнению экспертов, новые производственные мощности для модулей памяти заработают ещё нескоро, и дефицит может постепенно снизиться в 2027–2028 гг., когда свои плоды начнут приносить инвестиции 2024–2025 гг. В качестве временной меры возможно повышение эффективности использования имеющегося оборудования программными средствами. Например, NVIDIA анонсировала новое ПО для мониторинга и продления жизни ИИ-ускорителей в ЦОД. С другой стороны, индустрия не в первый раз прибегает к увеличению сроков службы оборудования. Так поступали Microsoft, Google, CloudFlare, Scaleway и др.
11.05.2026 [15:14], Сергей Карасёв
Broadcom представила решения 10G PON и Wi-Fi 8 для организации ШПДКомпания Broadcom анонсировала оптимизированный чип 10G PON и сопутствующие изделия Wi-Fi 8 для организации широкополосного доступа в интернет (ШПД). Решения призваны помочь операторам отказаться от устаревших медных и кабельных сетей в пользу оптоволоконных каналов и беспроводных подключений с высокой пропускной способностью. В частности, представлен продукт BCM68565 10G xPON Gateway Device. Это «система на чипе» (SoC) с поддержкой 10G ITU PON/XGS-PON/GPON/Active Ethernet. Устройство оптимизировано для предоставления широкого спектра услуг. В состав новинки входит многоядерный CPU с архитектурой Arm v8. Реализованы контроллеры PCIe, DDR (DDR4, LPDDR4, DDR5 и LPDDR5) и флеш-памяти, интерфейсы PCM и USB, а также PON MAC, 10GbE PHY, XFI/USXGMII-S и 4 × 1GbE PHY. Упомянуты функции безопасной загрузки и шифрования.
Источник изображения: Broadcom Кроме того, дебютировали два чипа Wi-Fi 8 — изделия BCM67142 и BCM67192. В первом случае используется конфигурация антенн 3 × 3 для 2,4 ГГц и 4 × 4 для 5 ГГц, во втором — 4 × 4 для 2,4 ГГц и 4 × 4 для 5 ГГц. В обоих вариантах имеются аппаратные механизмы разгрузки, интегрированные усилители мощности и цифровая предварительная коррекция искажений третьего поколения, которая даёт возможность снизить пиковую мощность на 25 %. Технология DBE (Dynamic Bandwidth Expansion) позволяет точке доступа в реальном времени изменять ширину используемого канала связи в зависимости от загрузки сети и помех. Broadcom уже поставляет образцы чипов BCM68565, BCM67142 и BCM67192 клиентам и партнёрам. Изделия ориентированы на массовый рынок ШПД-услуг.
11.05.2026 [15:13], Сергей Карасёв
Verda и Compal объединили усилия для создания ИИ-инфраструктуры следующего поколенияКомпании Compal Electronics и Verda (ранее известна как DataCrunch) объявили о стратегическом партнёрстве, направленном на формирование ИИ-инфраструктуры следующего поколения. Стороны сосредоточат усилия на реализации проектов в Европе и Азиатско-Тихоокеанском регионе. В рамках сотрудничества Compal будет поставлять серверные платформы высокой плотности на основе GPU-ускорителей. Говорится о применении жидкостного охлаждения. Серверы оптимизированы для ИИ-нагрузок нового типа, в том числе агентных приложений, которые используют машинное обучение для сбора и обработки огромных объёмов данных в реальном времени. Раннее сообщалось, что Verda готовится к развёртыванию систем на базе Arm AGI, а также GB300 и Vera Rubin. Отмечается, что готовящиеся к выпуску серверы обладают высокой тепловой эффективностью, что важно в плане устойчивого развития облачных решений Verda. Эта компания имеет дата-центры в Финляндии, полностью работающие на возобновляемой энергии. Кроме того, Verda управляет ЦОД в Исландии и намерена построить объект в Латвии. В целом, партнёрство направлено на усиление позиций Verda на рынке облачных услуг. Недавно компания сообщила о привлечении $117 млн для создания облачной инфраструктуры нового поколения для задач ИИ. Средства поступили от Lifeline Ventures, byFounders, Tesi, Varma и других инвесторов. В свою очередь, Compal усиливает собственную значимость в качестве инфраструктурного партнёра для неооблачных операторов. Compal обладает инженерными знаниями в области НРС, теплового проектирования и системной интеграции, что позволяет клиентам развёртывать энергоэффективные ИИ-инфраструктуры. Compal продолжает расширять свои производственные мощности на Тайване, во Вьетнаме и США, что помогает в удовлетворении потребностей заказчиков в различных регионах. При этом повышается надёжность работы цепочек поставок. |
|
