Материалы по тегу: ии
|
10.04.2026 [23:09], Владимир Мироненко
Intel поставит Google несколько поколений Xeon и IPUIntel и Google объявили об углублении многолетнего партнёрства в области инфраструктуры ИИ и облачных вычислений, охватывающего как развёртывание процессоров, так и совместную разработку специализированных чипов инфраструктуры (IPU). За два дня до этого компания стала партнёром по производству микрочипов для мегапроекта Tesla Terafab. В итоге акции Intel за неделю выросли не треть. Intel и Google отметили, что по мере ускорения внедрения ИИ-инфраструктура становится всё более сложной и гетерогенной, что приводит к увеличению зависимости от CPU для оркестрации, обработки данных и повышения производительности на системном уровне. В рамках сотрудничества с Intel компания Google планирует использовать несколько поколений процессоров Intel Xeon для улучшения производительности, энергоэффективности и TCO в своих инстансах. Intel уже делает кастомные Xeon для AWS. Стороны подчеркнули, что одних только ускорителей недостаточно для удовлетворения потребностей современной ИИ-инфраструктуры. «ИИ меняет подход к построению и масштабированию инфраструктуры. Масштабирование ИИ требует большего, чем просто ускорители — оно требует сбалансированных систем. CPU и IPU играют центральную роль в обеспечении производительности, эффективности и гибкости, необходимых для современных рабочих нагрузок ИИ», — сообщил генеральный директор Intel Лип-Бу Тан (Lip-Bu Tan). Как отметил ресурс The Next Web, Intel потратила последние два года на переориентацию с рынка универсальных вычислений, где она когда-то доминировала, на процессоры и специализированные инфраструктурные чипы, которые играют структурную роль в развёртывании ИИ и которые постоянно недооценивали в рамках концепций, ориентированных на GPU. Одновременно компания развивает бизнес по производству кастомных чипов для ИИ-рынка. Амин Вахдат (Amin Vahdat), старший вице-президент и главный технолог Google по инфраструктуре ИИ отметил: «Процессоры и инфраструктурное ускорение остаются краеугольным камнем систем ИИ — от организации обучения до инференса и развёртывания. Intel является надёжным партнёром уже почти два десятилетия, и её план развития Xeon даёт нам уверенность в том, что мы сможем и дальше удовлетворять растущие требования к производительности и эффективности наших рабочих нагрузок». Что важно, партнёрство охватывает несколько поколений Intel Xeon, а не текущий цикл обновления оборудования Google. Партнёрство также включает расширенную совместную разработку IPU (DPU) — специализированных программируемых ускорителей на базе ASIC, предназначенных для разгрузки сетевых функций, функций хранения, функций безопасности и т.п., которые на масштабах гиперскейлера позволяют существенно сэкономить и упростить управление инфраструктурой. Ранее компании совместно разработали свой первый IPU Mount Evans. Момент для анонса партнёрства выбран подходящий. Рабочие нагрузки ИИ смещаются от обучения на ускорителях, что позволить себе могут немногие, к масштабируемому инференсу, который является распределённым, чувствительным к задержкам, непрерывным и требовательным к ресурсам CPU для оркестрации, работы с данными и управления системой в целом. По-видимому, собственные процессоры Google Axion пока не слишком годятся на эту роль. Впрочем, для внешних заказчиков компания точно так же предлагает инстансы с чипами NVIDIA, хотя её собственные TPU пользуются огромным спросом. Впрочем, расширение сотрудничество можно объяснить и более прозаично — дефицит серверных процессоров на рынке усиливается, так что заранее договориться о поставках с крупным игроком, да ещё имеющим собственное производство на территории США, всегда выгодно.
10.04.2026 [16:19], Руслан Авдеев
Миллиард за мегаватт: «Ростелеком» построит 100-МВт дата-центр за 100 млрд рублей«Ростелеком» активно наращивает мощности своих дата-центров, но обходится это довольно дорого — каждый мегаватт стоит 1 млрд руб. По словам президента компании, строительство нового ЦОД с учётом серверного оборудования обойдётся в 100 млрд руб., сообщают «Ведомости». При строительстве её последнего крупного дата-центра на 40 МВт каждый мегаватт стоил примерно столько же, итоговая цена строительства составила 40 млрд руб. По мнению компании, окупаемость дата-центра будет зависеть от того, удастся ли реализация продукта, связанного с облачными вычислениями. В случае успеха ЦОД окупится за 5–7 лет, если сдавать объект в аренду — 10 лет. Для реализации придётся привлекать средства со стороны, но в компании отмечают, что имеется большой интерес к ЦОД у консервативных инвесторов и специальных закрытых фондов. Сейчас, по словам главы РТК-ЦОД, компания ещё прорабатывает проект, и о сроках реализации говорить преждевременно. Изучаются условия энергоснабжения, возможность генерировать электричество самостоятельно, логистика, вопросы безопасности и расстояние до мегаполисов.
Источник изображения: Glenov Brankovic/unsplash.com Согласно статистике IKS-Consulting, по итогам 2025 года мощность коммерческих дата-центров составляла 250 МВт с разрешённым максимумом 990 МВт. Крупнейшим назывался объект РТК-ЦОД с 250 МВт подведённой и 144 МВт реально потребляемой мощности. Второе место заняла IXcellerate (128 и 72 МВт соответственно), третье — «Росатом» (93 и 63 МВт). Также выделяются два дата-центра «Росатома» — «Калининский» на 48 МВт и «Москва-2» на 36 МВт. По информации IKS-Consulting, в 2024 году в России ввели в эксплуатацию более 11 тыс. стойко-мест в коммерческих дата-центрах, а в 2025 году — всего 5 тыс. Прирост мощности тоже уменьшился. Если в 2024 году ввели в эксплуатацию более 90 МВт, то в прошлом — около 36 МВт. Всего на конец 2025 года в России, вероятно, насчитывалось 85 800 стойко-мест.
10.04.2026 [15:05], Руслан Авдеев
Девять из десяти: CoreWeave заключила с Meta✴ сделку на $21 млрд и тут же подписала контракт с AnthropicНеооблачный провайдер CoreWeave заключил с Meta✴ очередной крупный договор о предоставлении вычислительных мощностей для ИИ. В рамках сделки стоимостью $21 млрд Meta✴ получит в своё распоряжение облачные ИИ-мощности до декабря 2032 года. Мощности для Meta✴ развернут в нескольких локациях, в том числе на безе NVIDIA Vera Rubin. Дополнительно CoreWeave рассчитывает привлечь $4,25 млрд за счёт продажи облигаций для финансирования текущего строительства. Договор опирается на уже существующее соглашение стоимостью $14,2 млрд, заключенное компаниями в сентябре 2025 года, которое предусматривало предоставление облачных сервисов до декабря 2031 года. Именно под эту сделку привлекли кредит с отложенным предоставлением средств (DDL) для покупки ИИ-серверов и сопутствующей инфраструктурой. К марту 2026 года контракт вырос с $14,2 млрд до $19,2 млрд. Новый контракт — уже второе соглашение о предоставлении ИИ-инфрастурктуры, подписанное Meta✴ в течение месяца, стоимостью более $20 млрд. В марте Meta✴ заключила сделку объёмом $27 млрд с неооблачной компании Nebius, которая тоже предоставит платформу Vera Rubin. Что касается сделки с Anthropic, то деталей пока мало. Подписано многолетнее соглашение о предоставлении ИИ-мощностей для развития семейства моделей Claude, которые будут развёрнуты поэтапно, начиная с 2026 года. CoreWeave отметила, что теперь девять из десяти лидирующих разработчиков ИИ-моделей пользуются её услугами.
Источник изображения: Adeolu Eletu/unspalsh.com Из привлекаемых $4,25 млрд часть приходится на облигации с погашением $1,25 млрд в 2031 году и конвертируемые, с погашением $3 млрд в 2032 году. Оба вида облигаций доступны институциональным покупателям в рамках частного размещения, без выпуска на открытый рынок. Неооблачная компания активно привлекает финансирование и из других источников. В 2026 году она уже получила $1 млрд от Morgan Stanley, упомянутый кредит на ИИ-ускорители и $2 млрд инвестиций от NVIDIA. В сентябре 2025 года CoreWeave расширила соглашение с OpenAI на $6,5 млрд, доведя общую сумму контрактов до $22,4 млрд. В августе NVIDIA объявила о намерении выкупить все нераспроданные вычислительные мощности CoreWeave до 2032 года на сумму $6,3 млрд. Microsoft же и так была якорным заказчиком компании, хотя действовала в интересах OpenAI.
10.04.2026 [13:53], Руслан Авдеев
Bridge Data Centres выгнала из своих ЦОД сингапурское ИИ-неооблако Megaspeed, подозреваемое в нарушении антикитайских санкций СШАПодконтрольный американской инвесткомпании Bain Capital оператор ЦОД Bridge Data Centres (BDC) отказал в размещении на своём объекте в Малайзии облачному провайдеру Megaspeed из Юго-Восточной Азии, которого США подозревают в незаконном предоставлении чипов NVIDIA Китаю, сообщает Bloomberg. Как сообщают знакомые с ситуацией источники, компанию Megaspeed International на объекте в Малайзии заменит облачный провайдер Zenlayer. Об этом свидетельствует служебная записка, направленная Bridge Data Centres своим кредиторам в феврале. Причина замены не называется, но источники сообщают, что оператор ЦОД пошёл на разрыв отношений с Megaspeed после того, как США инициировали расследование относительно структуры собственности компании, желая выяснить, не занималась ли она организацией доступа к передовым ИИ-чипам NVIDIA для Китая в нарушение американских экспортных ограничений. Для Megaspeed одним из ключевых вопросов является судьба ИИ-серверов на основе ускорителей NVIDIA, обнаруженных на объектах Bridge Data Centres прошлой осенью. Сингапурская Megaspeed является неооблачным ИИ-провайдером, объект в Малайзии был её крупнейшим активом. Megaspeed была сформирована в 2023 году путём отделения от китайской игровой компании. NVIDIA отказалась сообщать, известно ли ей об инциденте с участием BDC и посещали ли её представители объекты Megaspeed в последние месяцы в этом регионе. В 2025 году производитель проводил выборочные проверки Megaspeed в Юго-Восточнйо Азии. В декабре сообщалось, что компания намерена снова проверить бизнес «в ближайшем будущем». BDC объявила, что все 68,4 МВт мощности ЦОД, зарезервированные для Megaspeed, передадут облачному провайдеру Zenlayer из Лос-Анджелеса. Он специализируется на обучении ИИ-моделей.
Источник изображения: Hongwei FAN/unspalsh.com BDC считается одним из крупнейших операторов ЦОД в Азии, куда, по прогнозам экспертов, к 2030 году инвестируют к 2030 году около $800 млрд. Кредиты — ключевое средство финансирования масштабирования BDC, поэтому компания должна демонстрировать кредиторам стабильный приток средств от арендаторов. Чтобы развиваться дальше, Bridge Data Centres нужны миллиарды долларов. Минувшей зимой она начала привлекать дополнительный капитал. В марте оператор ЦОД вёл переговоры о привлечении $6 млрд для выхода на рынок Таиланда, тогда же компания намеревалась удвоить существующий кредит для расширения в Малайзии до $5 млрд. По данным Datacenter Dynamics, Megaspeed отрицает участие в любом нелегальном трафике чипов и сдаче в аренду вычислительных мощностей киатйским структурам. По словам её представителей, компания неоднократно проходила проверки со стороны американских и малайзийских властей, а также NVIDIA. Ранее она подчёркивала, что информация СМИ вводит в заблуждение, а сама компания действует строго в рамках всех правил экспортного контроля, в соответствии с самыми высокими «юридическими и этическими стандартами». Ещё несколько лет назад сообщалось, что китайские компании нашли лазейку в законах США для доступа к передовым ИИ-ускорителям и моделям в облаках AWS и Azure, а позже появилась информация, что Alibaba и ByteDance начали тренировать передовые ИИ-модели в ЦОД Юго-Восточной Азии. Тем не менее, в начале 2026 года в США принят «Закон о безопасности удалённого доступа» (Remote Access Security Act), расширяющий действие «Закона о реформе экспортного контроля». Это позволяет федеральным властям США «ограничивать возможности иностранных противников получать удалённый доступ к технологиям, включая ИИ-чипы, через облачные вычислительные сервисы». Другими словами, китайским компаниям запрещён доступ к передовым ускорителям в ЦОД и облаках за пределами КНР.
10.04.2026 [08:57], Сергей Карасёв
Cloud.ru сформировал неооблако для работы с ИИРоссийский провайдер облачных сервисов Cloud.ru объявил о выделении решений для работы с ИИ в отдельное бизнес-направление. Речь идёт о платформе в формате неооблака (Neocloud), в основу которой положены ускорители на основе GPU. Отмечается, что при формировании неооблака компания Cloud.ru полагалась на свой опыт в создании ИИ-инфраструктуры и работе с различными типами GPU. По модели GPUaaS (GPU-as-a-Service) провайдер предоставляет доступ к тысячам современных ИИ-ускорителей в публичном облаке. Кроме того, допускается гибридное развёртывание с использованием частной инфраструктуры. Неооблако предназначено для практического внедрения ИИ в бизнес-процессы. Клиентам предлагается единая управляемая среда, объединяющая инфраструктуру, данные и инструменты. Она обеспечивает полный цикл работы с большими языковыми моделями (LLM) — от разработки и обучения до инференса и эксплуатации. При этом допускается масштабирование ресурсов в соответствии с выполняемыми задачами: могут использоваться как отдельные GPU, так и целые кластеры распределённых вычислений. Инфраструктура может быть адаптирована под разные этапы жизненного цикла ИИ-моделей.
Источник изображения: Cloud.ru «В условиях ограниченного доступа к GPU и высокой стоимости оборудования компании сталкиваются с ключевым ограничением — невозможностью гибко управлять вычислительными ресурсами. Преимущество формата Neocloud — эффективное использование графических ускорителей под разные типы нагрузок, от дообучения моделей до инференса», — говорит Cloud.ru. В рамках неооблака предоставляются различные GPUaaS-сервисы: это, в частности, выделенные серверы и виртуализированные ресурсы под управлением Kubernetes, высокопроизводительные кластеры и пр. Для распределённого обучения используются собственная платформа Evolution Distributed Train, а также стандартные инструменты управления вычислениями. Реализованы функции проактивного мониторинга, автоматической замены отказавших узлов, перезапуска задач обучения и управления очередями. По заявлениям Cloud.ru, благодаря эффективному распределению ресурсов между задачами разного масштаба обеспечивается доступность инфраструктуры на уровне 98 %, тогда как оптимизация затрат достигает 80 %. «Сегодня бизнесу нужна не просто возможность получить доступ к GPU, а среда, в которой можно работать с ИИ на практике — от экспериментов до масштабирования решений. По сути, облако становится базой для реализации ИИ-стратегии, позволяя закрыть весь цикл работы с моделями и не инвестировать в избыточные мощности», — подчёркивает компания.
09.04.2026 [18:57], Руслан Авдеев
У Cloud.ru уже 29 тыс. серверов и 56 МВт мощностей в девяти ЦОДПровайдер облачных сервисов и ИИ-решений Cloud.ru отчитался об итогах 2025 года. Выручка компании за 2025 год увеличилась на 50 % год к году, составив 76,5 млрд руб. Показатель EBITDA вырос на 71 % — до 58,0 млрд руб., а чистая прибыль — на 86 % до 14,7 млрд. Для сравнения, в 2024 году чистая прибыль была на уровне 7,9 млрд. По оценкам iKS-Consulting, Cloud.ru является лидером российского рынка облаков. Особую роль сыграли инфраструктура и сервисы, необходимые для проектов с ИИ. Впервые их доля в общей выручке перевалила за половину и составила 54 % (41,0 млрд руб.). В 2024 году аналогичный показатель составил 47 % — 23,7 млрд руб. Основными потребителями ИИ-сервисов и соответствующей инфраструктуры стали IT-бизнесы (29 %), ретейл (12 %), финансы (10 %) и девелопмент (8 %). По результатам 2025 года выручка от «базовых» облачных сервисов выросла на 31 %, до 35,5 млрд руб. (против 27,2 млрд руб. в 2024 году). Показатель значительно выше, чем средние темпы роста российского облачного рынка. По словам компании, спрос на ИИ-сервисы стал дополнительным драйвером роста облачного рынка, но выросло и использование базовых облачных сервисов. Утверждается, что компания успешно реализовала накопленную экспертизу в управлении инфраструктурой и созданию новых сервисов, предложив клиентам «востребованные продукты по доступной цене».
Источник изображения: Razvan Chisu/unspalsh.com Сообщается, что в феврале Cloud.ru получила кредитный рейтинг ruAA+ от рейтингового агентства АКРА со стабильным прогнозом. В числе прочего отмечаются сильные операционные показатели, низкая долговая нагрузка и высокий уровень рентабельности. Ключевой фактор роста по оценке АКРА — развитие ИИ-направления. Инфраструктура компании включает стойки общей мощностью 56 МВт, размещённых в девяти ЦОД. Всего на компанию приходится 43 тыс. единиц IT-оборудования, в том числе 29 тыс. серверов.
09.04.2026 [18:05], Владимир Мироненко
OpenAI приостановила проект Stargate в Великобритании из-за дорогой электроэнергию и неподходящих законовOpenAI приостановила проект Stargate в Великобритании, анонсированный в сентябре в партнёрстве с неооблаком Nscale и NVIDIA, поскольку нормативно-правовая среда страны и высокая стоимость электроэнергии не способствуют его реализации. Компания не отказывается от проекта Stargate UK целом, но ждёт, когда появятся «подходящие условия, которые позволят осуществить долгосрочные инвестиции в инфраструктуру», — заявил представитель OpenAI ресурсу CNBC. CNBC отметил, что цены на промышленную энергию в Великобритании — одни из самых высоких в мире, что наряду со сложностями с получением разрешения на подключение к национальной электросети является ключевым препятствием для развития ИИ-инфраструктуры в стране. К тому же местные законодатели стремятся разработать новые правила по поводу использования защищённого авторским правом контента в ИИ-моделях. Впрочем, по словам источника, непосредственно знакомого с ситуацией, OpenAI и Nscale всё ещё ведут переговоры о будущем проекте. В июле 2025 года OpenAI подписала меморандум о взаимопонимании (MOU) с правительством Великобритании, планируя разместить вычислительные мощности в нескольких локациях. Первый ЦОД компания хотела развернуть на территории бизнес-парка Cobalt Park в английском Ньюкасле (Newcastle), который относится к Зоне развития ИИ (AI Growth Zone). OpenAI намеревалась развернуть 8 тыс. ИИ-ускорителей в начале 2026 года, а затем увеличить их количество до 31 тыс. Этих мощностей было бы достаточно для использования ИИ-моделей OpenAI в работе критически важных государственных сервисов, в регулируемых отраслях, например, финансовой, и партнёрства в сфере национальной безопасности. В марте сообщалось, что Великобритания собиралась отложить изменения в своих правилах авторского права, которые упростили бы использование медиаконтента ИИ-компаниями, из-за возражений создателей контента. В опубликованном правительством докладе об авторском праве и ИИ было отмечено, что большинство респондентов, участвовавших в публичных консультациях, «отклонили первоначальное предпочтительное предложение: широкое исключение с возможностью отказа». «Многие отклики поступили от представителей креативных индустрий, которые опасались, что такой подход позволит генеративному ИИ учиться на их работах без компенсации и конкурировать с ними», — говорится в докладе. Несмотря на приостановку проекта, представитель OpenAI заявил об огромном потенциале для будущего ИИ в Великобритании. «В Лондоне находится наш крупнейший международный исследовательский центр, и мы поддерживаем стремление правительства стать лидером в области ИИ», — сообщил он, добавив, что компания продолжает расширять своё присутствие в стране, а также выполнять обязательства в рамках меморандума о взаимопонимании с правительством. Примечательно, что ранее OpenAI наняла бывшего канцлера британского Казначейства для глобального расширения проекта Stargate.
09.04.2026 [15:25], Руслан Авдеев
Synergy Research: более половины всех мощностей ЦОД в мире приходится на гиперскейлеров, а к 2031 году они займут ⅔ рынкаСогласно прогнозам Synergy Research Group, на долю операторов ЦОД из числа гиперскейлеров уже сегодня приходится около половины всех мощностей дата-центров в мире, а к 2031 году баланс окончательно изменится в пользу техногигантов. Согласно результатам исследования Synergy Research, на долю крупных облачных провайдеров сейчас приходится 48 % мировых мощностей ЦОД, из них 60 % — собственные дата-центры, самостоятельно построенные или находящиеся в собственности гиперскейлеров. На колокейшн-ЦОД, не связанные с гиперскейлерами, приходится всего 20 % мощности, а ещё 32 % — на корпоративные объекты, расположенные на собственных территориях бизнесов различного профиля. При этом ещё в 2018 году на собственные дата-центры компаний приходилось 56 % мировой мощности ЦОД, но ситуация продолжает меняться в пользу гиперскейлеров. Мощность в целом будет расти, чему, как ожидается, будет способствовать трёхкратное увеличение мощностей гиперскейлеров. Synergy прогнозирует, что к 2031 году на долю гиперскейлеров будет приходиться уже 67 % всех мощностей ЦОД в мире, при этом доля корпоративных площадок сократится до 19 %. Хотя доля колокейшн-объектов будет уменьшаться, их совокупная мощность, наоборот, будет расти ежегодно двухзначными темпами в процентах. Благодаря развитию рынка ИИ и размещению ИИ-ускорителей ёмкость корпоративных ЦОД тоже начнёт расти после периода стагнации, хотя их доля будет падать в среднем на пару процентов ежегодно. По словам Synergy Research, облачные сервисы и цифровые потребительские сервисы многие годы меняли модель использования дата-центров, а в последние три года ключевым драйвером, ускорившим изменения, стал искусственный интеллект. Хотя имеются региональные различия в использовании ЦОД, общемировой тренд — увеличение доли мощностей, контролируемых крупным игроками, включая AWS, Microsoft, Google и др. В ближайшие три года их мощности должны удвоиться, всего техногиганты планируют построить в указанный период почти 800 новых дата-центров. Кроме того, гиперскейлеры усиливают контроль и над интернет-каналами. Как заявляется в докладе JLL, к 2030 году на ЦОД будет потрачено в мире $3 трлн — это крупнейший инвестиционный «суперцикл» в истории, 2025–2030 гг. появятся ЦОД общей мощностью около 97 ГВт. Впрочем, согласно анализу DC Byte, существуют немалые риски для этого рынка. Аналитики назвали отмечают, что всё больше проектов не доходят до стадии строительства, правительства всё больше влияют на реализацию проектов, а капитал всё активнее расходуется на ранних стадиях реализации — это повышает риски для инвесторов.
09.04.2026 [14:00], Владимир Мироненко
SambaNova и Intel готовят гетерогенное решение для агентного ИИ — конкурента продуктам NVIDIASambaNova в рамках следующего этапа сотрудничества с Intel анонсировала гетерогенное аппаратное решение, которое объединяет GPU, процессоры Intel Xeon 6 и RDU SambaNova для инференса для «самых требовательных» приложений агентного ИИ. Новинка вместе с полным ИИ-стеком станет доступна во II половине 2026 года. Компании также планируют развернуть облачную ИИ-платформу. В данном решении GPU отвечают за высокопараллельную фазу предварительного заполнения, эффективно преобразуя длинные запросы в KV-кеши, а RDU SambaNova обеспечивают высокопроизводительное декодирование с низкой задержкой. Xeon функционируют как хост-процессор для управления системой, координации задач агентного ИИ, распределения рабочей нагрузки, обработку API и т.д. Xeon также отвечает за компиляцию и запуск кода, он же проверяет результаты. По результатам измерений SambaNova, Xeon 6 обеспечивает более чем на 50 % более быстрое время компиляции LLVM по сравнению с серверными процессорами на базе Arm и до 70 % более высокую производительность векторных баз данных по сравнению с доступными решениями на базе x86. Это ускоряет создание агентов, позволяя разработчикам быстрее переходить от идеи к реализации, говорят компании. ![]() Как отметил ресурс Data Center Dynamics, это объявление было сделано спустя месяц после того, как SambaNova представила чип SN50 для рабочих нагрузок агентного ИИ, который, по утверждению компании, в пять раз быстрее конкурентов и втрое выгоднее с точки зрения TCO. Тогда же SambaNova также объявила о «многолетнем стратегическом сотрудничестве» с Intel для предоставления «высокопроизводительных и экономически эффективных решений для ИИ-инференса для компаний, занимающихся разработкой ИИ, поставщиков моделей, предприятий и государственных организаций по всему миру». Ранее Intel анонсировала похожую гибридную систему на базе собственных ускорителей Habana Gaudi3 и NVIDIA B200. Такого же подхода с распределением этапов инференса по разным чипам придерживается и NVIDIA в кластерах Vera Rubin, дополненных LPU Groq (вместо Rubin CPX). Основное различие между подходом Intel с SambaNova и подходом NVIDIA в том, что первый ориентируется на «более безопасный» вариант, поскольку не требует сложной базовой инфраструктуры для дезагрегированного инференса. Для заказчиков, ищущих более модульное решение стоечного масштаба, ориентированное на разделение «предварительное заполнение + декодирование», вариант Intel + SambaNova может быть более привлекательным.
09.04.2026 [11:38], Сергей Карасёв
Цены на 30-Тбайт SSD для ЦОД за год взлетели в шесть раз — теперь они в 22,6 раз дороже HDDКомпания VDURA, специализирующаяся на программно-определяемых СХД для задач ИИ и HPC, обнародовала свежие данные Flash Volatility Index, говорящие о том, что цены на SSD корпоративного класса продолжают стремительно расти. Связано это с высоким спросом на накопители со стороны гиперскейлеров и операторов облачных платформ. По оценкам, стоимость SSD вместимостью 30 Тбайт на базе чипов TLC NAND подскочила на 472 % в период со II квартала 2025 года по первую четверть 2026-го — с $3062 до $17 500. Иными словами, зафиксирован 5,7-кратный рост. Вместе с тем цена на SSD с чипами QLC NAND за тот же период увеличилась с $2450 до $15 121, то есть, в 6,2 раза. Подчеркивается, что только за три недели марта — с 4 по 23 число — стоимость SSD корпоративного класса увеличившись почти на четверть. В результате, разница в цене между SSD типа QLC на 30 Тбайт и HDD аналогичной ёмкости взлетела с 4,9 раза во II квартале 2025 года до 22,6 раза в I четверти 2026-го. Наблюдающаяся ситуация приводит к фундаментальным изменениям экономики систем хранения типа All-Flash. В частности, VDURA с применением собственного инструмента Storage Economics Optimizer Tool проанализировала стоимость владения платформой хранения суммарным объёмом 25 Пбайт, способной обеспечивать устойчивую производительность на уровне 1000 Гбайт/с. По ценам II квартала 2025 года такая система, выполненная исключительно на базе SSD, потребовала бы вложений в размере $9,69 млн на протяжении трёхлетнего периода. Ко II четверти 2026-го соответствующие прогнозируемые затраты выросли до $48,17 млн, то есть, примерно в пять раз. Вместе с тем развёртывание и поддержание гибридной архитектуры SSD+HDD той же вместимости с сопоставимой производительностью обойдётся в $11,37 млн. Для смягчения проблемы резкого роста стоимости SSD компания VDURA предлагает программу Flash Relief Program. |
|

