Материалы по тегу: дефицит

10.12.2025 [12:56], Руслан Авдеев

Сплошные «спекулянты»: ЦОД резервируют избыточные мощности электросетей, не пуская остальных потребителей

Дата-центры мешают подключениям к электросетям новых потребителей энергии. Дело в том, что они «резервируют» гораздо больше мощностей, чем это действительно необходимо, сообщает The Register со ссылкой на доклад Uptime Institute.

Выяснилось, что энергопотребление ЦОД со временем меняется мало, а заметное изменение спроса обычно связано с расширением бизнеса. При этом операторы регулярно «резервируют» избыточные мощности для потенциального роста в будущем. Это блокирует доступ к фактически свободным в текущий момент мощностям другим пользователям.

При этом операторы энергосетей не могут расширять инфраструктуру без разрешения регуляторов, а процесс рассмотрения заявок довольно длительный. Мощности же между клиентами распределяются строго по очереди. В результате застройщики ЦОД резервируют мощности, которые могут не потребоваться никогда, на всякий случай запрашивают побольше, чтобы компенсировать возможный рост проектов в будущем.

 Источник изображения: Michael Pointner/unsplash.com

Источник изображения: Michael Pointner/unsplash.com

Проблемы обостряются из-за электрификации транспорта и промышленности. Особую роль играют ИИ ЦОД, поскольку, в отличие от обычных, у них есть времена пиковых нагрузок с частыми, весьма большими колебаниями мощности. При этом ИИ ЦОД всё чаще поддерживаются на государственном уровне, хотя есть и позитивные примеры. Так, власти Великобритании представили пакет реформ в рамках проекта Delivering AI Growth Zones, где исключаются т.н. спекулятивные заявки на присоединение — такие заявки были одобрены, отменять их заявитель не собирается, но и ввод объектов в эксплуатацию не происходит. При этом правительство подтвердило, что счета за электричество для частных лиц вырастут, чтобы помочь финансированию расширения электросетей.

В США принимают собственные меры. Министерство энергетики (DoE) страны ввело правило, ограничивающее сроки рассмотрения обращений о подключении до 60 дней. Также вводятся залоги и штрафы за отзыв заявок для борьбы со спекулятивными проектами. Теперь приоритет отдаётся заявителям, согласным на возможное сокращение энергопотребления — уменьшить или временно прекратить его можно будет при необходимости стабилизации энергосети. Ускорить доступ к сетям могут гибкие соглашения, в рамках которых пользователи соглашаются с управлением спросом и выполняют технические требования, например — о мониторинге в режиме реального времени со стороны оператора сети.

В отчёте Uptime Institute также предупреждает, что ЦОД могут терять от 10 % ёмкости своих источников бесперебойного питания (ИБП) из-за «заблокированной» мощности, когда электрическая инфраструктура построена, но фактически не используется IT-оборудованием или вспомогательными системами. В целом аналитики предсказуемо пришли к выводу, что на фоне роста нагрузки на электросети по всему миру операторы дата-центров должны стремиться к эффективному использованию зарезервированных мощностей. Им рекомендуется привлекать операторов электросетей, чтобы минимизировать возможные проблемы, и рассматривать заключение гибких соглашений, позволяющих ускорить доступ в местностях с перегруженной энергетической инфраструктурой.

Постоянный URL: http://servernews.ru/1133631
09.12.2025 [22:15], Владимир Мироненко

Дефицит добрался и до лазеров: NVIDIA зарезервировала чуть ли не всю продукцию ключевых поставщиков

В настоящее время высокоскоростные оптические соединения играют ключевую роль в обеспечении производительности и масштабируемости ИИ ЦОД, особенно по мере того, как они превращаются в крупные кластеры, сообщается в исследовании TrendForce. Согласно её прогнозу, в 2025 году мировые поставки оптических трансиверов с поддержкой скорости 800 Гбит/с и выше составят 24 млн шт. с последующим ростом в 2,6 раза почти до 63 млн шт. в 2026 году.

Аналитики отметили, что резкий рост спроса на оптические трансиверы привёл к значительному дефициту в сфере производства источников лазерного излучения на глобальном рынке. NVIDIA в рамках стратегии развития зарезервировала крупные объёмы продукции у ключевых поставщиков EML-лазеров, что привело к увеличению сроков поставки — не ранее 2027 года. В связи с этим производители оптических модулей и провайдеры облачных услуг (CSP) вынуждены заниматься поиском вторичных поставщиков и альтернативных решений, что ведёт к изменениям в отрасли, отметили в TrendForce.

Помимо лазеров VCSEL, используемых в линиях связи малой и средней дальности, оптические модули для линий средней и большой дальности в основном включают два типа лазеров: EML, отличающиеся большой дальностью действия и целостностью сигнала, и лазеры непрерывного излучения (CW). В EML-лазерах все ключевые функции объединены на одном кристалле, что делает их чрезвычайно сложными и трудоёмкими в изготовлении. Их производством занимается всего лишь несколько поставщиков, таких как Lumentum, Coherent (Finisar), Mitsubishi, Sumitomo и Broadcom. Впрочем, о дефиците Mitsubishi предупреждала более года назад. А Broadcom, вероятно, будет отдавать приоритет собственным продуктам.

 Источник изображения: TrendForce

Источник изображения: TrendForce

EML-лазеры играют важную роль в масштабировании вычислительных кластеров с увеличением расстояния между ЦОД. Планы NVIDIA по развитию кремниевой фотоники и интегрированной оптики (CPO) реализуются медленнее, чем предполагалось, что приводит к постоянной зависимости от подключаемых модулей для расширения кластеров. Чтобы обеспечить стабильную работу в этом направлении, NVIDIA заранее зарезервировала значительную часть мощностей по производству EML-лазеров, что отразилось на доступности компонента для остальных компаний.

CW-лазеры, используемые в паре с кремниевыми фотонными чипами, отличаются более простой конструкцией, обусловленной ​​отсутствием встроенной возможности модуляции, что упрощает производство и расширяет круг поставщиков. В результате CW-лазеры в сочетании с кремниевой фотоникой стали основным альтернативным решением для провайдеров облачных услуг в связи с дефицитом EML-лазеров.

Впрочем, здесь тоже наблюдаются проблемы. Производство CW-лазеров сталкивается с растущими ограничениями, обусловленными рядом факторов: длительные сроки поставки оборудования ограничивают расширение производства, а строгие стандарты надёжности требуют трудоемких тестов. В результате многие поставщики передают эти этапы на аутсорсинг, что создает дополнительные узкие места в производственной цепочке. Ввиду того, что экосистема производства CW-лазеров приближается к дефициту мощностей, поставщики вынуждены форсировать усилия по расширению производства.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Помимо лазерных передатчиков, для изготовления оптических модулей требуются высокоскоростные фотодиоды (PD) для приёма сигналов. Ведущие поставщики, такие как Coherent, MACOM, Broadcom и Lumentum, выпускают фотодиоды PD 200G с поддержкой скорости передачи данных 200 Гбит/с на канал.

Фотодиоды производятся на эпитаксиальных пластинах из фосфида индия (InP), аналогично EML- и CW-лазерам. Поскольку производители лазеров стремятся расширить мощности для эпитаксии, многие из них передают заказы на InP-эпитаксию (процесс выращивания эпитаксиальных листов из фосфида индия на подложке) специализированным заводам, таким как IntelliEPI и VPEC, сообщили в TrendForce.

TrendForce прогнозирует, что спрос, обусловленный ИИ, приведёт не только к сокращению предложения модулей памяти, но и отразится на экосистеме производства лазеров в целом. Стремление NVIDIA обеспечить необходимые объёмы поставок EML-лазеров привело к ускорению перехода к CW-решениям и кремниевой фотоники среди других производителей. В то же время общеотраслевая гонка за производственными мощностями меняет роли в цепочке поставок и стимулирует рост производства у поставщиков технологий эпитаксии и обработки полупроводниковых соединений, говорят аналитики.

Постоянный URL: http://servernews.ru/1133642
08.12.2025 [10:02], Сергей Карасёв

DDN анонсировала «прорывные» хранилища данных для ИИ — из разномастных SSD и HDD

Компания DataDirect Networks (DDN) анонсировала, как утверждается, «прорывную» архитектуру хранения данных, ориентированную на системы для ресурсоёмких задач ИИ. По сравнению с другими платформами предложенное решение обеспечивает возможность существенного снижения финансовых затрат при высоком уровне производительности.

DDN отмечает, что стремительное развитие ИИ приводит к повышению спроса на SSD, что, в свою очередь, провоцирует рост цен на чипы флеш-памяти NAND, а следовательно, и на твердотельные накопители. Аналитики TrendForce прогнозируют увеличение контрактных цен на изделия NAND на 5–10% только в IV квартале 2025 года. Волатильность цен на SSD и HDD нарушает сроки реализации проектов, создаёт неопределённости при планировании бюджета и ставит под угрозу развитие масштабных ИИ-платформ. DDN заявляет, что её архитектура данных помогает решить проблему.

 Источник изображения: DDN

Источник изображения: DDN

Обычные СХД, ориентированные на требовательные ИИ-нагрузки, как подчёркивает DDN, полагаются исключительно на дорогие высокопроизводительные NVMe-накопители. Архитектура DDN предполагает сочетание трёх уровней хранения — на базе SSD высокого класса, недорогих SSD и HDD. Такой подход реализован в платформах DDN EXA и Infinia.

Отмечается, что предложенная архитектура позволяет задействовать ресурсы GPU-ускорителей на 90–98 % при выполнении задач, связанных с обучением больших языковых моделей (LLM), инференсом, аналитикой больших данных и НРС.  При этом потребность в дорогостоящих высокопроизводительных SSD (NVMe) снижается на 35–65 %, общие капитальные затраты на организацию хранения сокращаются на 40–70 %, а эксплуатационные расходы уменьшаются на 30–60 %.

Заявлена глубокая оптимизация для NVIDIA DGX, GB200, Spectrum-X, BlueField и NIM. Среди сфер применения архитектуры названы финансовый сектор, автомобилестроение и робототехника, науки о жизни, производство, государственный сегмент и суверенный ИИ.

Постоянный URL: http://servernews.ru/1133532
05.12.2025 [16:45], Руслан Авдеев

Gartner: дата-центры без собственных источников энергии попросту не выживут

По словам Gartner, в скором будущем дата-центры не смогут функционировать без собственных источников генерации электроэнергии, иначе цены на услуги окажутся слишком высокими, сообщает The Register. В Gartner уверены, что заказчики уже сейчас должны учитывать, как скажутся на их бизнесе доступность и стоимость электроэнергии. Так, в процесс оценки облачных сервисов предлагается добавить энергетическую устойчивость — наличие приоритетного доступа к электроэнергии и стратегии смягчения последствий в случае нехватки питания.

В исследовании «Новейшие технологии: основные тенденции в обеспечении электропитания центров обработки данных» (Emerging Tech: Top Trends in Data Center Power Provisioning) аналитки предполагают, что способность энергокомпаний поставлять электричество в необходимых объёмах скоро окажется под вопросом. Дата-центры строятся быстрее, чем необходимая для них энергетическая инфраструктура. Работы по строительству новых энергетических мощностей занимают годы, поэтому электростанции просто не успеют запустить вовремя, чтобы запитать все возводящиеся дата-центры.

Другими словами, операторы дата-центров не могут рассчитывать на получение всей необходимой электроэнергии от обычных электросетей, поэтому большинство из них будут строить собственные генерирующие мощности. Предполагается, что к 2028 году лишь 40 % всех новых ЦОД будут полагаться исключительно на присоединение к энергосетям. Gartner рекомендует арендаторам требовать от операторов дата-центров раскрывать стратегии энергообеспечения и документировать то, каким именно образом их планы влияют на ценообразование услуг ЦОД.

 Источник изображения: Karwin Luo/unsplash.com

Источник изображения: Karwin Luo/unsplash.com

По оценкам компании, изменения происходят настолько быстро, что уже к 2036 году 40 % всех дата-центров будут использовать локальную генерацию на базе «чистых» технологий, пока недоступных для коммерческого использования. Так, упоминаются малые модульные реакторы (SMR) — они могли бы обеспечить энергией новое поколение ЦОД. Внимание уделили и сделкам в области термоядерной энергетики.

Уже сегодня, по оценке Gartner, в ЦОД можно применять водородные топливные элементы. Хотя в настоящее время в качестве источника для получения водорода используется природный газ, что ведёт к появлению большого количества парниковых газов, в будущем вероятен переход на «зелёный» водород, получаемый с помощью ветряных, солнечных или других электростанций, поставляющих возобновляемую энергию для электролиза.

Какую бы новую технологию операторы ЦОД ни выбрали, Gartner считает, что первые проекты будут использоваться для «краш-тестов», т.ч. и операторам, и их клиентам фактически придётся платить за непроверенные технологии. Подчёркивается, что операторы ЦОД одними из первых попытаются перейти на новые, «чистые» технологии генерации, но начальные затраты на них будут высокими. Ожидается, что первые пользователи таких ЦОД и будут покрывать необходимые расходы.

 Источник изображения: Gartner

Источник изображения: Gartner

В ноябре 2024 года агентство сообщало, что дефицит энергии ограничит возможности 40 % ИИ ЦОД уже к 2027 году. В апреле 2025 года исследование Международного энергетического агентства (IEA) показало, что потребление электроэнергии в ЦОД во всём мире вырастет к 2030 году до 945 ТВт·ч. По оценкам самой Gartner, мировое энергопотребление ЦОД вырастет с 448 ТВт·ч в 2025 году до 980 ТВт·ч в 2030 году.

Постоянный URL: http://servernews.ru/1133463
04.12.2025 [23:59], Владимир Мироненко

$100-млрд мегасделка NVIDIA и OpenAI дальше громких заявлений пока так и не продвинулась

Спустя два месяца с момента подписания NVIDIA и OpenAI соглашения о намерениях, согласно которому NVIDIA инвестирует в OpenAI до $100 млрд, предоставив ей в аренду ускорители для развёртывания ИИ-инфраструктуры мощностью не менее 10 ГВт, выяснилось, что окончательная сделка до сих пор не подписана, сообщил ресурс Fortune.

Исполнительный вице-президент и финансовый директор NVIDIA Колетт Кресс (Colette Kress) на конференции UBS Global Technology and AI Conference в Скоттсдейле (Scottsdale), сообщила инвесторам, что партнёрство с OpenAI по-прежнему находится на стадии согласования. «Мы до сих пор не заключили окончательное соглашение», — заявила Кресс в ответ на вопрос о том, какая часть обязательств NVIDIA фактически зафиксирована договором. С учётом того, что генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) однажды назвал сделку «крупнейшим проектом инфраструктуры ИИ в истории», такой ответ вызывает новые вопросы.

По оценкам аналитиков, сделка может принести NVIDIA до $500 млрд выручки. Вместе с объявлением в сентябре о партнёрстве, компании представили план по развёртыванию миллионов ускорителей NVIDIA в течение нескольких лет, подкрепленный мощностями ЦОД до 10 ГВт и обещанием NVIDIA инвестировать в OpenAI до $100 млрд по мере реализации проекта. Эта новость способствовала росту рынка ИИ-инфраструктуры, подняв акции NVIDIA на 4 % и укрепив общее мнение о тесном сотрудничестве двух компаний.

 Источник изображения: Brett Jordan / Unsplash

Источник изображения: Brett Jordan / Unsplash

Как отметил Fortune, неясно, почему сделка не была заключена, но последний отчёт NVIDIA по 10-Q дает некоторые подсказки. В документе прямо указано, что «нет никаких гарантий, что какие-либо инвестиции будут осуществлены на ожидаемых условиях, если вообще будут», подразумевая не только соглашение по OpenAI, но и запланированные инвестиции NVIDIA в размере $10 млрд в Anthropic, $5 млрд в Intel и $2 млрд в Synopsys. Следует отметить, что фраза об отсутствии гарантий по будущей сделке является стандартной формулировкой, которую добавляют в 10-Q, говоря о планируемых сделках и не только.

В разделе «Факторы риска» NVIDIA подробно описывает сложность реализации подобных мегасделок. NVIDIA вынуждена заказывать ускорители, память, сетевое оборудование и другие компоненты более чем за год вперёд, часто по неотменяемым предоплаченным контрактам. NVIDIA предупреждает, что в случае сокращения объёмов, задержки финансирования или изменения направления развития, у неё могут возникнуть «избыточные запасы», «штрафы за отмену заказа» или т.п. В документе отмечается, что прошлые несоответствия между спросом и предложением «значительно навредили её финансовым результатам».

NVIDIA сообщила, что наличие «мощностей ЦОД, энергии и капитала» критически важно для клиентов, чтобы развернуть ИИ-системы, которые они устно обязались использовать. Наращивание мощности описывается как «многолетний процесс», который сталкивается с «нормативными и техническими проблемами, а также проблемами строительства». Компания предупреждает, что если клиенты не смогут получить достаточное количество электроэнергии или финансирования, это может «задержать внедрение технологий или сократить масштабы» развёртывания.

 Источник изображения: Amy Hirschi / Unsplash

Источник изображения: Amy Hirschi / Unsplash

NVIDIA также признала, что её собственные темпы инноваций затрудняют планирование. Компания перешла на ежегодный цикл выпуска новых архитектур — Hopper, Blackwell, Vera Rubin, — продолжая при этом поддерживать предыдущие поколения. Она отметила, что более высокие темпы развития архитектуры «могут усугубить трудности» с прогнозированием спроса и привести к «снижению спроса на продукты текущего поколения».

Эти разъяснения NVIDIA подкрепляют предостережения «медведей» на ИИ-рынке, таких как известный мастер «игры на понижение» Майкл Берри (Michael Burry), который утверждает, что NVIDIA и другие производители чипов чрезмерно продлевают срок службы своих чипов и что их последующее обесценивание приведёт к сбоям в инвестиционном цикле. В ответ на такие обвинения Хуанг заявил, чипы шестилетней давности всё ещё работают на полную мощность.

Кроме того, NVIDIA по аналогии с прошлыми циклами подъёмов и спадов рынка, связанными с «модными» вариантами использования, такими как майнинг криптовалют, предупредила, что новые рабочие нагрузки могут спровоцировать аналогичные всплески и спады, которые трудно предугадать, и могут наводнить серый рынок подержанными GPU.

 Источник изображения: Kvalifik / Unsplash

Источник изображения: Kvalifik / Unsplash

Хотя сделку пока не заключили, и теперь неясно, будет ли она подписана, Кресс подчеркнула, что отношения NVIDIA с OpenAI остаются «очень прочным партнёрством», длящимся уже более десяти лет. По её словам, OpenAI считает NVIDIA своим «предпочтительным партнёром» в сфере вычислений. Кресс также добавила, что сделка по OpenAI не входит в прогноз NVIDIA по поставкам GPU для ЦОД на 2025–2026 гг. на сумму $500 млрд. На данный момент закупки ускорителей для OpenAI осуществляются опосредованно, через облачных партнёров, а не по новому прямому соглашению с NVIDIA, указанному в протоколе о намерениях. OpenAI «хочет выйти на прямой контракт», отметила Кресс. «Но, опять же, мы всё ещё работаем над окончательным соглашением», — добавила она.

В ответ на вопрос, влияет ли рост популярности Google TPU как потенциального конкурента ускорителям NVIDIA на лидерство компании на рынке, Кресс заявила: «Абсолютно нет». «Сейчас мы сосредоточены на том, чтобы помочь не только разработчикам моделей, но и множеству предприятий, предлагая полный пакет решений», — сказала она. По её словам, конкурентным преимуществом NVIDIA является не какой-то отдельный чип, а вся платформа в целом: аппаратное обеспечение, CUDA и постоянно расширяющаяся библиотека ПО. Именно благодаря этому стеку старые архитектуры по-прежнему широко используются, даже с переходом на Blackwell в качестве нового стандарта. «Все работают на нашей платформе, — сказала Кресс. — Все модели работают на нашей платформе, как в облаке, так и локально».

Представитель OpenAI не стал комментировать ситуацию с подписанием сделки, но указал на слова Хуанга во время телефонной конференции, который говорил об OpenAI как о «компании, появляющейся раз в поколение», и его ожидание того, что инвестиции в OpenAI «приведут к необычайной доходности», пишет CNBC.

Постоянный URL: http://servernews.ru/1133428
03.12.2025 [17:56], Руслан Авдеев

Арифметика не сходится: без прорыва инвестиции в ИИ не окупятся «ни при каких обстоятельствах», заявил глава IBM

По словам генерального директора IBM Арвинда Кришны (Arvind Krishna), занимающиеся ИИ-проектами компании тратят миллиарды долларов в гонке за создание «общего искусственного интеллекта» (AGI), способного сравняться с человеком или заменить его. Но в экономической целесообразности таких проектов он сомневается, сообщает Business Insider.

По его словам, расходы на ИИ-инфраструктуру постоянно растут, но компании, вероятно, «никаким образом» не смогут окупить такие затраты на дата-центры. По грубым оценкам бизнесмена, сегодня для дата-центра мощностью 1 ГВт требуется около $80 млрд. Если компания намерена построить дата-центры на 20–30 ГВт, её понадобится $1,5 трлн капиталовложений. При этом уже через пять лет ИИ-чипы в ЦОД потеряют актуальность, после чего будет необходимо всё «выбросить и заменить».

Как заявил Кришна, если смотреть на инвестиции в сфере разработки AGI, то они составляют около 100 ГВт. При текущем уровне затрат на инфраструктуру общая стоимость гонки составит приблизительно $8 трлн. По словам Кришны, никакой прибыли ждать не приходится, поскольку только для выплаты процентов с $8 трлн кредитов потребуется около $800 млрд ежегодно.

 Источник изображения: Nick Russill / Unsplash

Источник изображения: Nick Russill / Unsplash

При этом без внешней финансовой и иной помощи не обойтись. В октябрьском послании к американским властям глава OpenAI Сэм Альтман (Sam Altman) рекомендовал США строить по 100 ГВт генерирующих мощностей в год, а сама OpenAI обязалась потратить около $1,4 трлн на различные сделки. Кришна не вполне согласен с Альтманом. Глава IBM вообще не уверен, что доступные сегодня технологии в принципе позволят создать AGI. Вероятность появления AGI без технологической революции Кришна оценил не более в чем 1 %. Простым масштабирование вычислительных мощностей, по-видимому, не обойтись.

Скептически к идее ускорения создания AGI отнеслись и некоторые другие лидеры технологических компаний. Глава Salesforce Марк Бениофф (Marc Benioff) заявлял, что с «крайним подозрением» относится к продвижению AGI, сравнив процесс с гипнозом. Руководивший проектом Google Brain Эндрю Ын (Andrew Ng) говорил, что AGI «переоценен», а генеральный директор Mistral Артур Менш (Arthur Mensch) назвал AGI «маркетинговым ходом». По словам соучредителя OpenAI Ильи Суцкевера, эпоха масштабирования прошла, и даже стократное увеличение масштаба LLM не поможет сделать настоящий качественный скачок. Мир снова возвращается в эпоху исследований, только с очень большими компьютерами.

 Источник изображения: bert b / Unsplash

Источник изображения: bert b / Unsplash

Сам Кришна ничего против ИИ как такового не имеет. По его словам, ИИ-инструменты позволят предприятиям повысить эффективность, дав им триллионы долларов. Тем не менее, для AGI нужно больше технологий, чем просто современные LLM. Для его создания понадобится объединить LLM с «фундаментальными знаниями» (hard knowledge). Но даже в этом случае вероятность создания AGI можно отнести лишь к категории «возможно».

Хотя оптимистичный прогноз NVIDIA снизил опасения по поводу возможного возникновения «пузыря» на рынке ИИ, о возможности его появления эксперты и участники отрасли высказывались неоднократно. При этом в ноябре The Wall Street Journal рассказал, что IT-гиганты вкладывают в отрасль всё больше средств, без оглядки на опасения.

Постоянный URL: http://servernews.ru/1133328
01.12.2025 [19:10], Владимир Мироненко

Дефицит памяти добрался и до Raspberry Pi: цены на четвёртую и пятую «малинку» выросли

Рост цен на компоненты для вычислительных систем, который в основном объясняют бумом на ИИ-рынке, привёл к удорожанию даже традиционно дешёвых одноплатных компьютеров Raspberry Pi. Как сообщила компания, после увеличения в октябре цен на вычислительные модули CM4/CM5 из-за ограничений поставок памяти DDR4, ей пришлось повысить цены на Raspberry Pi 4 и 5.

Для тех, кто ищет более доступный вариант, компания выпустила модель Raspberry Pi 5 1 Гбайт. Однако его цена выше традиционных $35 — сразу $45. Впрочем, цена Raspberry Pi 4 1 Гбайт не изменилась и по-прежнему составляет $35. Напомним, что в октябре цена CM4/CM5 с 4 Гбайт памяти выросла на $5, с 8 Гбайт памяти — на $10. Стоимость Raspberry Pi 500 была увеличена на $10 — до $100. Компания пообещала вернуть цены к прежним значениям, как только снизится цена памяти. Ранее она так уже делала.

 Источник изображений: Raspberry Pi

Источник изображений: Raspberry Pi

«…, чтобы компенсировать недавний беспрецедентный рост стоимости памяти LPDDR4, мы объявляем о повышении цен на некоторые модели Raspberry Pi 4 и 5. Эти изменения во многом отражают повышение цен на наши вычислительные модули, о котором мы объявили в октябре, и помогут нам обеспечить поставки памяти в условиях всё более ограниченного рынка в 2026 году», — объявила Raspberry Pi.

Ниже показано, как изменились цены на компьютеры Raspberry Pi. В перечне не указаны модели Raspberry Pi 4 2 Гбайт, Raspberry Pi 3+ и более ранние модели, а также семейство Raspberry Pi Zero, которых не коснулось изменение цен.

Как отметил ресурс CNX Software, Raspberry Pi 5 1 Гбайт доступен ограниченно, поскольку, по всей видимости, он продаётся в основном через европейских реселлеров, а также через Canakit в США и Канаде. Однако найти его в Азии будет сложно, и ни у одного из реселлеров «остального мира» эта модель не имеется в наличии, отметил ресурс.

Постоянный URL: http://servernews.ru/1133212
27.11.2025 [23:19], Владимир Мироненко

Сословное право доступа: из-за дефицита ИИ-серверов Alibaba Cloud вынужденно разделила клиентов на категории

Alibaba Group сообщила финансовые результаты за II квартал 2026 финансового года, завершившийся 30 сентября. Группа отметила значительный рост выручки своего облачного подразделения благодаря буму в сфере ИИ. В связи с этим генеральный директор Alibaba Group Эдди Ву (Eddie Wu) заявил, что группа может увеличить расходы на ИИ-инфраструктуру сверх своего трёхлетнего прогноза, если спрос на ИИ-технологии останется высоким.

Однако общая выручка за квартал увеличилась всего на 5 % в годовом исчислении до ¥247,8 млрд ($35 млрд), а прибыль упала на 52 % по сравнению с прошлым годом до ¥20,99 млрд ($2,95 млрд). При этом выручка Cloud Intelligence Group увеличилась на 34 % год к году до ¥39,8 млрд ($5,6 млрд) против консенсус-прогноза аналитиков, опрошенных LSEG (по данным CNBC), в размере ¥37,9 млрд. Это выше роста в размере 26 % год к году в предыдущем квартале. Эдди Ву заявил, что «значительные» инвестиции группы в ИИ способствовали росту её выручки. Ранее компания объявила о планах инвестировать не менее ¥380 млрд ($53 млрд) в течение трёх лет в развитие своей инфраструктуры облачных вычислений и ИИ.

 Источник изображения: Alibaba Cloud

Источник изображения: Alibaba Cloud

«Высокий спрос на решения для ИИ ещё больше ускорил развитие нашего подразделения Cloud Intelligence Group: выручка выросла на 34 %, а выручка от продуктов, связанных с ИИ, достигла трехзначного показателя роста в годовом исчислении девятый квартал подряд», — сообщил Ву в квартальном отчёте. Согласно публикации The Register, гендиректор заявил, что «спрос на ИИ ускоряется» и углубляется благодаря спросу «во всех аспектах корпоративной деятельности… с применением в разработке продуктов, на всех этапах производственных процессов».

«Мы даже не успеваем за ростом спроса со стороны клиентов, в том числе и в плане скорости развёртывания новых серверов», — добавил он. В связи с этим компания вынужденно приняла решение ограничить доступ к ним, разделяя клиентов по масштабу использования облачных мощностей. «Если клиент использует все наши облачные сервисы, охватывающие хранилища, Big Data и пр., то, конечно, он получит более высокий приоритет», — пояснил гендиректор. «Если же клиент просто арендует GPU для решения каких-то очень простых задач по инференсу, то его потребности, соответственно, будут иметь более низкий приоритет», — добавил он. Ставка делается и на программные оптимизации.

Ву также выступил с опровержением опасений по поводу того, что ИИ — это инвестиционный пузырь, поддержав генерального директора NVIDIA Дженсена Хуанга (Jensen Huang) и генерального директора Lenovo Юаньцина Яна (Yuanqing Yang). Во-первых, по его словам, спрос на ИИ очень высок — Alibaba уже использует GPU на полную мощность — как последние модели, так и решения трёх-пятилетней давности. Во-вторых, он уверен в том, что всё лучшее в сфере ИИ ещё впереди, а по мере совершенствования базовых моделей Alibaba появятся новые сценарии использования, что привлечёт клиентов. Кроме того, компания разрабатывает собственные ИИ-ускорители T-Head PPU.

 Источник изображения: Alibaba Group

Источник изображения: Alibaba Group

Alibaba сообщила, что за последние 12 месяцев вложила ¥120 млрд ($16 млрд) в связанные с ИИ капитальные расходы. Это гораздо меньше, чем квартальные расходы Google, AWS, Microsoft или Meta. Только у AWS капзатраты за последний квартал составили около $34,2 млрд. В ходе общения с инвесторами Эдди Ву заявил, что нынешних капвложений может оказаться недостаточно, то есть, придётся их нарастить. Вместе с тем санкции США на поставку актуальных ускорителей и недостаток локальных аналогов сдерживает развитие Alibaba и других китайских игроков, отметил Bloomberg.

Акции группы на фондовой бирже в Гонконге выросли во вторник на 2 %, а незадолго до открытия торгов на Нью-Йоркской фондовой бирже — на 2,4 %. С начала года акции Alibaba выросли более чем на 90 % благодаря оптимизму инвесторов относительно её прогресса в области ИИ, пишет AP News. Способность Alibaba контролировать расходы и одновременно инвестировать в облачные операции — это то, за чем инвесторы будут следить в долгосрочной перспективе, полагает Bloomberg.

Постоянный URL: http://servernews.ru/1133071
27.11.2025 [12:51], Руслан Авдеев

HSBC: OpenAI придётся где-то найти ещё $207 млрд к 2030 году для достижения поставленных целей

Как следует из доклада Global Investment Research банковской группы HSBC, к 2030 году OpenAI необходимо добиться дополнительного финансирования на $207 млрд для реализации планов расширения бизнеса. Впрочем, с аналогичными проблемами могут столкнуться все IT-гиганты, сообщает The Register.

О дефиците финансирования зашла речь после того, как OpenAI выделила $300 млрд Oracle, $250 млрд — Microsoft и $38 млрд — AWS на оплату облачных вычислений. Даже с учётом того, что HSBC обновила прогнозы выручки компании, увеличившиеся на 4 % в сравнении с предыдущими оценками, средств для оплаты развития недостаточно.

В своём исследовании HSBC полагает, что OpenAI будет необходимо привлечь к 2030 году $207 млрд новых средств. Пока неизвестно, насколько гибко OpenAI может корректировать свои обязательства. В отчёте отмечено, что разрыв можно было бы сократить за счёт дополнительных вливаний капитала, долгового финансирования или если реальные доходы компании будут выше, чем предполагается.

По прогнозам HSBC, к 2030 году потребительские продукты OpenAI семейства ChatGPT привлекут 3 млрд постоянных пользователей (44 % населения мира старше 15 лет), в октябре 2025 года речь шла лишь о 800 млн. Дополнительно банк прогнозирует рост числа подписчиков с 8 % до 10 %, а также рост корпоративного спроса на API и лицензии, также вырастет и рекламная выручка.

 Источник изображения: Towfiqu barbhuiya/unsplash.com

Источник изображения: Towfiqu barbhuiya/unsplash.com

Тем не менее дефицит финансирования сохранится. Компания могла бы компенсировать его за счёт роста базы пользователей — ещё 500 млн человек принесли бы ей $36 млрд. Также она могла бы повысить эффективность вычислений, привлечь больше капитала от своих акционеров (например, Microsoft и SoftBank), а также взять в долг больше средств.

Невозможность устранить дефицит сильнее всего ударит по ближайшим технологическим партнёрам. В HSBC подчёркивают, что успех или неудача OpenAI сильнее всего отразится на показателях Oracle, Microsoft, Amazon, NVIDIA и AMD, а также SoftBank, владеющей 11 % доли компании. Хотя прогнозы для акций первых четырёх в отчёте пока благоприятные, после подписания сделки с OpenAI на $300 млрд Oracle уже столкнулась с волатильностью цены своих ценных бумаг.

После объявления о сделке в сентябре, акции Oracle временно выросли на 30 %, ненадолго сделав соучредителя компании Ларри Эллисона (Larry Ellison) самым богатым человеком мира. Впрочем, с тех цена Oracle снова просела и Эллисон переместился на третье место после Ларри Пейджа (Larry Page) и Илона Маска (Elon Musk). Партнёры OpenAI надеются, что дефицит финансирования будет устранён как можно скорее.

Впрочем, OpenAI продолжает развитие своих проектов. Например, в сентябре появилась новость, что компания совместно с Oracle и SoftBank построят в США ещё пять ИИ ЦОД для проекта Stargate.

Постоянный URL: http://servernews.ru/1133029
25.11.2025 [16:24], Руслан Авдеев

Нехватка ИИ-мощностей и проблемы с производительностью вынудили многих клиентов AWS обратиться к конкурентам

Летом 2025 года облачный бизнес Amazon (AWS) с трудом справлялся с растущим спросом на ИИ и упустил часть доходов. Сервис Bedrock занимает ключевое место в развитии ИИ-проектов компании. Однако летом Bedrock столкнулся с нехваткой мощностей, из-за чего некоторые клиенты ушли к конкурентам, в том числе к Google, сообщает Business Insider. Это привело к потерям десятков миллионов долларов и отложенной выручки.

Например, проект Fortnite стоимостью $10 млн достался Google Cloud после того, как AWS не смогла выделить ей необходимые квоты (лимит на токены или вызовы API). Согласно внутреннему документу AWS, попавшему в распоряжение журналистов, нефтетрейдер Vitol также перенёс проекты из AWS, а некоторые крупные клиенты, включая Atlassian и GovTech Singapore, летом были вынуждены ожидать увеличения квот, что привело к «отсроченным продажам» минимум на $52,6 млн. Более того, задержки с одобрением выделения мощностей и отказ в обработке нерегулярных, вынудили Stripe, Robinhood и Vanguard отказаться от переноса нагрузок в Bedrock.

Подчёркивается, что проблемы Bedrock потенциально ведут к потерям выручки и проблемам с клиентами. Это объясняет, почему облачные компании стремятся построить как можно больше ИИ ЦОД. Высокий спрос хорош только тогда, когда можно его удовлетворить и удержать клиентов от перехода к конкурентам. Бывшие и действующие сотрудники AWS отмечают, что проблемы с вычислительными мощностями были одними из наиболее значимых для компании в сентябре. AWS и раньше испытывала проблемы с нехваткой мощностей даже для собственных нужд, но сейчас ситуация обострилась.

 Источник изображения: LARAM/unsplash.com

Источник изображения: LARAM/unsplash.com

Тем временем в Amazon утверждают, что Bedrock быстро растёт, а AWS стремительно наращивает мощности для удовлетворения спроса, за 12 месяцев добавив 3,8 ГВт. Это больше, чем смогу получить любой другой облачный провайдер. AWS удвоила мощность с 2022 года и намерена сделать то же самое к 2027 году. Компания и далее намерена быть «очень агрессивной» в деле масштабирования вычислительных мощностей, причём AWS может монетизировать новые мощности «практически незамедлительно», а Bedrock имеет не меньший потенциал роста, чем EC2.

Частично проблемы с Bedrock могут быть связаны с тем, что компания отдаёт предпочтение крупным клиентам. В октябре заявлялось, что большинство задач Bedrock выполняется с помощью «доморощенных» ИИ-чипов Trainium, но в основном нагрузки приходятся на нескольких очень крупных клиентов, которые, по-видимому, готовы вкладываться в развитие инструментов на не самой популярной платформе. Ожидается, что компании среднего размера в ближайшие месяцы тоже начнут использовать Trainium нового поколения. Впрочем, последние иногда всё ещё не могут конкурировать с чипами NVIDIA.

Впрочем, помешала Bedrock не только нехватка мощностей. Так, Figma, Intercom и Wealthsimple предпочли использовать LLM Claude в Google Cloud или на платформе самой Anthropic из-за недостатка функций и высокой задержки в Bedrock. Британская госслужба Government Digital Service рассматривала переход в Microsoft Azure только потому, что Claude 3.7 Sonnet работала медленнее на платформе Bedrock. Thomson Reuters также выбрала Google Cloud для своего ИИ-продукта CoCounsel, поскольку сервис AWS оказался на 15–30 % медленнее и не имел ключевых правительственных сертификатов.

 Источник изображения: Vitaly Gariev/unspalsh.com

Источник изображения: Vitaly Gariev/unspalsh.com

В документе AWS отмечается, что платформа Bedrock уступает Google. Для моделей Gemini квоты в пять-шесть раз выше, а Gemini Pro побеждает Claude в Bedrock во многих бенчмарках. Хуже того, Gemini Flash обеспечивает сравнимое качество при кратно меньших затратах. Некоторые стартапы буквально «сбежали» по этой причине. TainAI перенесла 40 % задач на Gemini Flash, отказавшись от Claude в Bedrock и экономя тем самым $85 тыс./день, а Hotel Planner намеревалась перейти в Google Cloud или к OpenAI. Всё это было ещё до запуска Gemini 3.

Ещё более важная проблема, согласно документу, заключается в том, что у AWS нет целостного видения ИИ-инференса, хотя это ключевой сервис Bedrock. Это сыграло на руку не только гиперскейлерам, но и компаниями поменьше. Без чёткой стратегии AWS рискует упустить одну из самых привлекательных возможностей на рынке ИИ. Но этим проблемы не ограничиваются. Октябрьский сбой AWS продемонстрировал зависимость мировой Сети от лидера облачного рынка, так что многие задумались о переносе хотя бы части нагрузок на другие платформы, а Евросоюз рассматривает необходимость ограничения возможностей американских облачных гигантов.

В последние недели инвесторы обеспокоены расходами на ИИ, опасаясь возникновения очередного пузыря на рынке IT. В этом контексте дефицит мощностей для Amazon играет двоякую роль. Это свидетельствует, что спрос со стороны клиентов до сих пор высок. С другой стороны, дефицит — ещё одна причина тратить больше денег в развитие инфраструктуры, что повышает риск возникновения пузыря. Amazon утверждает, что намерена выделить $125 млрд на капитальные затраты в текущем году, и ещё больше — в 2026-м.

Постоянный URL: http://servernews.ru/1132903

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;