Материалы по тегу: s

07.02.2026 [17:23], Руслан Авдеев

AWS: ни один сервер с NVIDIA A100 не выведен из эксплуатации, а некоторые клиенты всё ещё используют Intel Haswell — не всем нужен ИИ

По словам главы AWS Мэтта Гармана (Matt Garman), клиенты до сих пор использует серверы на основе ИИ-ускорителей NVIDIA A100, представленных в 2020 году. Отчасти это происходит потому, что спрос на вычислительные ресурсы превышает предложение, так что устаревшие чипы по-прежнему востребованы, передаёт Datacenter Dynamics. По словам Гармана, все ресурсы фактически распроданы, а серверы с A100 из эксплуатации никогда не выводились.

Комментарии Гармана перекликаются с прошлогодним заявлением Амина Вахдата (Amin Vahdat), отвечающего в Google за ИИ и инфраструктуру. По его словам, в Google одновременно работают семь поколений тензорных ускорителей (TPU). Ускорители возрастом семь-восемь лет загружены на 100 %, а спрос на TPU так высок, что Google вынуждена отказывать некоторым клиентам. Впрочем, оба топ-менеджера, возможно, несколько кривят душой и пытаются развеять опасения инвесторов относительно того, что ИИ-ускорители, на которые тратятся огромные деньги, через два-три года придётся выкинуть, чтобы купить более современные, энергоэффективные и, конечно же, дорогие. И что за это время они не успеют окупиться.

Хотя Гарман назвал главной причиной сохранения работы серверов на A100 высокий спрос, он признал, что есть и другие причины. В частности, современные ИИ-чипы снижают точность вычислений с плавающей запятой. В результате некоторые клиенты попросту не могут перейти на Blackwell или вовсе вынуждены использовать Intel Xeon Haswell десятилетней давности для HPC-подобных вычислений, поскольку точности у современных ИИ-ускорителей недостаточно. В июне 2025 года AWS заявила о снижении цены доступа к устаревшим NVIDIA H100, H200 и A100 на своей платформе, причём для A100 стоимость снизилась на треть.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Стоит отметить, что «устаревшие» ускорители долго остаются востребованными, поскольку всё равно обладают большой производительностью. Наиболее яркий пример — разрешение на поставку в Китай чипов NVIDIA H200. Хотя США и их союзники готовятся к внедрению ускорителей поколения Vera Rubin, китайский бизнес готов покупать H200, поскольку те значительно производительнее, экономически выгоднее и удобнее отечественных ускорителей.

Постоянный URL: http://servernews.ru/1136462
06.02.2026 [18:44], Руслан Авдеев

Время — деньги: SiTime отчиталась о росте на рынке ЦОД и объявила о покупке смежных активов Renesas Electronics

Компания SiTime, занимающаяся разработкой и выпуском высокоточных устройств синхронизации времени для IT-индустрии, отчиталась о благоприятных финансовых итогах IV квартала и 2025 года в целом, связанных с успехами в сегменте, связанном с телеком-индустрией, корпоративными клиентами и ЦОД (Communications, Enterprise and Datacenter, CED). Кроме того, она потратит $1,5 млрд на покупку ключевых активов тайминг-бизнеса Renesas Electronics, сообщает Converge Digest.

В IV квартале 2025 года выручка SiTime составила $113,3 млн, на 36 % выше к/к и на 66 % г/г. Валовая маржа по GAAP составила 56,4 %, «не по GAAP» — 61,2 %, что превысило прогнозы. Чистая прибыль по GAAP составила $9,2 млн, или по $0,34 на каждую разводнённую акцию. Чистая прибыль не по GAAP — $41,3 млн или по $1,52 на акцию. В 2025 финансовом году выручка составила $326,7 млн, на 61 % выше год к году. Валовая маржа по GAAP составила 59,3 %, чистый убыток по GAAP — $42,9 млн, или по $1,72 на акцию с учётом разводнения. Валовая маржа не по GAAP составила $82,6 млн или $3,20 на акцию с учётом разводнения.

SiTime завершила год с $808,4 млн денежных средств, их эквивалентов и краткосрочных инвестиций. По словам главы SiTime Раджеша Вашишта (Rajesh Vashist), IV квартал — уже седьмой квартал подряд, в котором сегмент CED компании продемонстрировал рост более 100 % г/г. Отмечен широкий спрос во всех клиентских сегментах и ожидается, что динамика сохранится и в 2026 году, благодаря приложениям в сфере коммуникаций и ЦОД, связанным с ИИ-задачами.

 Источник изображения: SiTime

Источник изображения: SiTime

На фоне успехов компания объявила о покупке ключевых активов тайминг-бизнеса Renesas Electronics Corporation. Этот шаг существенно расширяет портфолио решений SiTime и углубляет присутствие компании на растущих рынках ИИ ЦОД и телекоммуникаций. Предполагается, что купленный бизнес позволит генерировать около $300 млн выручки в течение 12 месяцев после того, как сделка будет закрыта, приблизительно 75 % будет приходиться на ИИ ЦОД и коммуникационную сферу, а валовая маржа составит около 70 %.

В портфолио добавятся разнообразные продукты, включая генераторы тактовых импульсов (clock generators), буферы (buffers), сетевые синхронизаторы (network synchronizers) и подавители джиттера (jitter attenuators) — дополняя имеющуюся линейку MEMS-осцилляторов компании. Это расширяет присутствие SiTime на рынке коммутаторов ЦОД, SmartNIC, маршрутизаторов, промышленных систем и автомобильных платформ.

По условиям сделки SiTime выплатит Renesas $1,5 млрд наличными и передаст приблизительно 4,13 млн своих акций. На это потратят собственные средства компании, ещё $900 млн будет взято в долг Wells Fargo. Ожидается, что сделка будет закрыта к концу 2026 года, после чего глава Renesas Хидетоси Сибата (Hidetoshi Shibata) войдёт в совет директоров SiTime. Дополнительно подписан меморандум о взаимопонимании для изучения возможности интеграции MEMS-резонаторов SiTime во встраиваемые продукты Renesas, это должно снизить сложность печатных плат с повышением эффективности и производительности готовых решений.

Постоянный URL: http://servernews.ru/1136456
06.02.2026 [15:18], Владимир Мироненко

Акции Amazon упали после объявления о $200 млрд капзатрат на 2026 год

Акции Amazon рухнули более чем на 10 % на внебиржевых торгах в четверг после объявления финансовых результатов за IV квартал и весь 2025 год и повышения прогноза капитальных затрат на 2026 год до $200 млрд.

Выручка Amazon в IV квартале 2025 года, закончившемся 31 декабря, выросла год к году на 14 %, до $213,39 млрд, превысив прогноз аналитиков в $211,33 млрд (согласно опросу LSEG). Скорректированная прибыль на разводнённую акцию составила $1,95, что ниже консенсус-прогноза Уолл-стрит в $1,97. Чистая прибыль выросла до $21,19 млрд с $20,00 млрд годом ранее. В текущем квартале Amazon прогнозирует выручку в диапазоне от $173,5 млрд до $178,5 млрд, что означает рост год к году примерно на 11–15 %. Средняя точка этого диапазона соответствует прогнозу аналитиков в $175,6 млрд.

За весь 2025 год выручка Amazon выросла 12 % до $716,92 млрд с $637,96 млрд годом ранее. Чистая прибыль увеличилась до $77,67 млрд или $7,17 на разводнённую акцию с $59,25 млрд или $5,53 на разводнённую акцию в 2024 году.

 Источник изображений: Amazon

Источник изображений: Amazon

Выручка облачного подразделения Amazon Web Services (AWS) за квартал увеличилась на 24 % до $35,58 млрд, превзойдя ожидания аналитиков, опрошенных StreetAccount, в размере $34,93 млрд. Операционная прибыль сегмента AWS достигла $12,47 млрд по сравнению с $10,63 млрд годом ранее. По словам гендиректора Amazon Энди Джасси (Andy Jassy), это был самый быстрый темп роста AWS за 13 кварталов.

Как отметил ресурс SiliconANGLE, облачный бизнес Amazon по-прежнему намного больше, чем у конкурентов, но его рыночная доля постепенно сокращается из-за роста Microsoft Azure и Google Cloud. На прошлой неделе Microsoft сообщила о росте выручки Azure на 39 %, а продажи Google Cloud выросли на 48 %, что представляет собой самый быстрый темп роста с 2021 года. Аналитики сообщили, что Azure и Google Cloud также быстрее растут в сегменте ИИ-сервисов.

«Учитывая высокий спрос на наши существующие продукты и перспективные возможности, такие как ИИ, микросхемы, робототехника и LEO-спутники, мы планируем инвестировать около $200 млрд в капитальные вложения в Amazon в 2026 году и ожидаем высокой долгосрочной окупаемости вложенного капитала», — заявил Джасси. В ходе конференции с аналитиками Джасси пояснил, что основная часть капитальных затрат в 2026 году будет направлена в AWS, где, по его словам, «рабочие нагрузки, не связанные с ИИ, растут быстрее, чем мы ожидали». «У нас очень высокий спрос, — добавил Джасси. — Клиенты действительно хотят использовать AWS для основных и ИИ-задач, и мы монетизируем мощности так быстро, как только можем их установить».

Объявленная сумма значительно превышает прогноз Уолл-стрит в $146,6 млрд и намного превосходит $131 млрд капзатрат в 2025 году. Ранее на этой неделе материнская компания Google, Alphabet, заявила, что планирует потратить от $175 до $185 млрд на капитальные затраты, а Meta Platforms — от $115 до $135 млрд. Ожидаемые затраты Microsoft составят $145 млрд, а Oracle — $55 млрд.

Несмотря на опасения инвесторов по поводу значительных капитальных затрат, некоторые аналитики считают, что позиции Amazon остаются сильными. «Развитие ИИ, безусловно, значительно ускоряет переход компаний в облако, что является основной причиной значительно более высоких, чем прогнозировалось, капитальных затрат, которые мы считаем фундаментально позитивными», — написал аналитик Pivotal Research Group Джефф Влодарчак (Jeff Wlodarczak) в записке для клиентов.

Он отметил, что Amazon управляет двумя высокорентабельными быстрорастущими предприятиями и огромным низкорентабельным логистическим бизнесом с беспрецедентным масштабом, который «потенциально может существенно повысить маржу в среднесрочной и долгосрочной перспективе, используя ИИ в сочетании с робототехникой».

Постоянный URL: http://servernews.ru/1136447
06.02.2026 [11:04], Руслан Авдеев

Cerebras привлекла ещё $1 млрд инвестиций после сделки с OpenAI

Через четыре месяца после завершения раунда финансирования в объёме $1,1 млрд Cerebras Systems заявила о привлечении ещё $1 млрд, во многом от прежних инвесторов, сообщает Datacenter Dynamics. Сделку серии H возглавила Tiger Global, к ней присоединились AMD, Fidelity Management, Atreides Management, Alpha Wave Global, Altimeter, Coatue, 1789 Capital и другие компании. Сегодня оценка рыночной капитализации Cerebras составляет $23 млрд.

Новый раунд привлечения средств объявлен через несколько недель после того, как компания заключила с OpenAI сделку на $10 млрд. Cerebras сегодня предлагает суперчип WSE-3 с 4 трлн транзисторов, это в 19 раз больше, чем может обеспечить NVIDIA Blackwell B200. Чип включает 44 Гбайт SRAM, что, как считается, позволяет добиться большей скорости инференса и меньше зависеть от поставок всё более дефицитных HBM и DDR.

 Источник изображения: Cerebras

Источник изображения: Cerebras

В сентябре 2024 года Cerebras подала заявку на IPO. Тогда компания сообщала, что в I полугодии 2024 года её выручка составила $136,4 млн, это более чем в 10 раз выше год к году. Убытки за тот же период сократились с $77,8 млн до $66,6 млн. В 2025 году компания отозвала заявку на IPO, посчитав, что документ более не отражает состояние бизнеса. В частности, в 2025 году значительно выросла выручка и теперь компания рассчитывает повторно подать документы для выхода на биржу уже во II квартале 2026 года.

Постоянный URL: http://servernews.ru/1136436
04.02.2026 [18:37], Сергей Карасёв

«Рикор» выпустил российские 2U-серверы на базе Intel Xeon Emerald Rapids

Компания «Рикор» анонсировала российские серверы Rikor 7212DSP5 и Rikor 7225DSP5, построенные на аппаратной платформе Intel Xeon Emerald Rapids. Устройства, как утверждается, подходят для решения широко спектра задач, включая виртуализацию, гиперконвергентную инфраструктуру, облачные сервисы, анализ данных, машинное обучение и приложения ИИ.

Новинки выполнены в форм-факторе 2U. Допускается установка двух процессоров Xeon и 32 модулей оперативной памяти DDR5 суммарным объёмом до 8 Тбайт. Реализована поддержка интерфейса PCIe 5.0. Серверы различаются конфигурацией подсистемы хранения данных: модель Rikor 7212DSP5 рассчитана на 12 накопителей с доступом через фронтальную панель, а модификация Rikor 7225DSP5 — на 25. Прочие технические характеристики пока не раскрываются.

 Источник изображения: «Рикор»

Источник изображения: «Рикор»

Одним из ключевых преимуществ решений производитель называет использование корпусов собственной разработки. Это, как утверждается, обеспечивает контроль качества металла и сборки, а также ускоряет процесс выпуска систем. Кроме того, «Рикор» может предлагать заказчикам уникальные решения по оптимизации внутреннего пространства. В результате, клиенты получают «более гибкие, технологичные и экономически выгодные серверы, наиболее полно соответствующие требованиям по локализации и технологической независимости».

Производство серверов осуществляется на роботизированном заводе. «Рикор» уже принимает заказы на новые модели, а их отгрузки начнутся в ближайшее время. Компания гарантирует стабильность поставок.

Постоянный URL: http://servernews.ru/1136339
03.02.2026 [17:15], Руслан Авдеев

OpenAI не устроили чипы NVIDIA для инференса, теперь она ищет альтернативы

По данным многочисленных отраслевых источников, компания OpenAI недовольна некоторыми ИИ-чипами NVIDIA и с прошлого года ищет им альтернативы. Потенциально это усложнит отношения между крупнейшими игроками рынка на фоне бума ИИ, сообщает Reuters. Изменения стратегии OpenAI связаны с усилением акцента на инференсе. NVIDIA доминирует в нише ускорителей для обучения ИИ-моделей, но теперь инференс стал отдельным рынком с сильной конкуренцией.

Решение OpenAI — вызов доминированию NVIDIA в сфере ИИ и препятствие $100-млрд сделки между компаниями, обеспечивающей разработчику чипов долю в ИИ-стартапе в обмен на доступ к передовым ускорителям. Предполагалось, что сделка будет закрыта за недели, но вместо этого переговоры ведутся месяцами. В то же время OpenAI заключила соглашение с AMD и Cerebras (её в своё время даже хотели купить) для получения «альтернативных» чипов, а также разрабатывает собственный ИИ-ускоритель при участии Broadcom. Amazon тоже не прочь предоставить OpenAI собственные ускорители, равно как и Google. Изменение планов OpenAI изменило и потребности в вычислительных мощностях и замедлило переговоры с NVIDIA.

 Источник изображения:  Robin Jonathan Deutsch / Unsplash

Источник изображения: Robin Jonathan Deutsch / Unsplash

В минувшую субботу глава NVIDIA Дженсен Хуанг (Jensen Huang) опроверг слухи о проблемах с OpenAI, назвав их «чепухой» и подчеркнув, что клиенты продолжают выбирать NVIDIA для инференса, поскольку компания обеспечивает наилучшее соотношение производительности и совокупной стоимости владения, причём в больших масштабах. Отдельно представитель OpenAI заявлял, что компания полагается на NVIDIA для поставок большинства чипов для инференса, причём именно NVIDIA обеспечивает наилучшую производительность на каждый вложенный доллар. Глава OpenAI Сэм Альтман (Sam Altman) отметил, что NVIDIA выпускает «лучшие чипы в мире» и есть надежда, что OpenAI останется её «гигантским» клиентом очень долгое время.

При этом, как сообщает Reuters со ссылкой на семь источников, OpenAI не удовлетворена производительностью инференса, на которую способны чипы NVIDIA. В частности, речь идёт о специализированных задачах вроде разработки ПО с помощью ИИ и коммуникаций ИИ с другим ПО. По данным одного из источников, компании понадобится новое аппаратное обеспечение, которое в конечном счёте обеспечит в будущем порядка 10 % вычислительных мощностей для инференса.

 Источник изображения: OpenAI

Источник изображения: OpenAI

OpenAI обсуждала возможности работы с ИИ-стартапами, включая Cerebras и Groq для обеспечения чипов с более быстрым инференсом, но NVIDIA фактически поглотила Groq на $20 млрд, что привело к прекращению переговоров с компанией. Хотя формально речь идёт неэксклюзивном лицензировании технологий Groq, что в теории позволяет сторонним компаниям получить доступ к решениям Groq, фактически все разработчики перешли в NVIDIA, а оставшаяся небольшая команда отвечает за выполнение облачных контрактов с имеющимися заказчиками.

Чипы NVIDIA хорошо подходят для обработки больших объёмов данных при обучении больших ИИ-моделей вроде тех, что стоят за ChatGPT. Тем не менее прогресс требует массового использования уже обученных моделей для дальнейшего инференса и ИИ-рассуждений. Как сообщается, OpenAI с 2025 года ищет альтернативы ускорителям NVIDIA с упором на компании, создающие чипы с большими объёмами интегрированной SRAM. Maia 200 от Microsoft, по-видимому, компании не очень подходит.

 Источник изображения:  Hermann Wittekopf - kmkb / Unsplash

Источник изображения: Hermann Wittekopf - kmkb / Unsplash

Инференс моделей более требователен к памяти, чем обучение, а вычислительная нагрузка, наоборот, не так велика. В тоге нередко на доступ к данным уходит больше времени, чем на расчёты. NVIDIA и AMD полагаются на внешнюю память, что замедляет соответствующие процессы общения с чат-ботами. В OpenAI проблемы отметили при эксплуатации системы Codex, активно продвигаемой компанией для создания кода. В компании считают, что некоторые слабости системы связаны именно с оборудованием NVIDIA.

Конкуренты OpenAI полагаются на альтернативное оборудование. Anthropic активно использует AWS Trainium и Google TPU, а Google уже много лет использует свои TPU, которые с недавних пор готова отдавать на сторону. TPU оптимизированы в том числе для инференса и в некоторых отношениях более производительны, чем GPU общего назначения AMD и NVIDIA.

Когда OpenAI недвусмысленно выразила отношение к технологиям NVIDIA, та предложила компаниям, создающим ускорители с упором на SRAM, включая Cerebras и Groq, купить их бизнес. Cerebras отказалась и заключила прямую сделку с OpenAI. Groq вела переговоры с OpenAI о предоставлении вычислительных мощностей, что вызвало интерес у инвесторов, оценивших капитализацию компании на уровне $14 млрд.

Постоянный URL: http://servernews.ru/1136248
03.02.2026 [14:45], Руслан Авдеев

Спутник-платформа RuVDS для разработки космического ПО успешно выведен на орбиту

Разработанный ОКБ «Пятое поколение» (АО «ОКБ5») материнский космический аппарат Mule 4T успешно вывел на орбиту спутник-платформу RUVDSSat1 российского хостинг-провайдера RuVDS, предназначенную для тестирования ПО в космосе и выполнения других испытательных задач. Все спутники формата TriSAT, в том числе RUVDSSat1, управляются ОКБ с Земли. Пуск всех аппаратов TriSAT состоялся 28 декабря 2025 года с помощью ракеты-носителя «Союз-2.1б». С этого дня до начала февраля RUVDSSat1 был пристыкован к Mule 4T и функционировал в сервисном режиме.

После расстыковки с материнским аппаратом руководство проекта начало испытания аппаратов в самостоятельном полёте. По словам главы RuVDS, с февраля начался самостоятельный орбитальный этап проекта — цель первого этапа достигнута, на орбиту доставлены «лучшие статьи техноэнтузиастов». На следующих этапах планируется предоставить разработчикам ПО для спутников доступ к RUVDSSat1. Пока проводится подготовка, после неё аппарат начнёт выполнять обязанности «спутника-платформы». Расчётный срок службы аппарата RUVDSSat1 составляет 1 год.

 Источник изображения: RuVDS

Источник изображения: RuVDS

По словам ОКБ «Пятое поколение», пуск можно назвать успешным в полной мере, поскольку Mule 4T штатно вывел нагрузку на целевые орбиты. Принадлежащий RUVDS спутник перешёл к автономной работе и лётных испытаний. Пока ОКБ ожидает подтверждения лётных характеристик по результатам программы испытаний. Возможные отклонения параметров и режимов, получив телеметрию, проанализирует наземная команда. Миссия, в рамках которой планируется реализовать несколько инициатив, направленных на отработку перспективных IT-решений для космоса, носит научно-исследовательский характер.

Компания RuVDS известна необычными проектами. Например, ещё в 2024 году сообщалось, что она развернёт ЦОД на дрейфующей льдине в Арктике, сбросив оборудование с борта самолёта. Летом 2025 года она запустила виртуальный ЦОД на мощностях «Ростелекома» в Заполярье. А свой первый т.н. тайнисат компания запустила в 2023 году.

Постоянный URL: http://servernews.ru/1136262
03.02.2026 [11:33], Сергей Карасёв

86 P-ядер, 128 линий PCIe 5.0 и 8 каналов DDR5-6400/8800: Intel представила чипы Xeon 600 для рабочих станций

Корпорация Intel представила процессоры семейства Xeon 600 для рабочих станций. В основу чипов положена архитектура Xeon 6700P Granite Rapids. Изделия приходят на смену Xeon W-2500/W-3500 (Sapphire/Emerald Rapids), которые дебютировали летом 2024 года.

Процессоры Xeon 600 содержат вычислительные ядра Redwood Cove, количество которых варьируется от 12 до 86. Для сравнения, решения Xeon W-3500 насчитывают максимум 60 ядер. Важно отметить, что задействованы исключительно производительные Р-ядра (энергоэффективные Е-ядра в конструкцию не входят). Благодаря технологии многопоточности возможна обработка одновременно до 172 потоков инструкций.

Базовая тактовая частота у новых CPU варьируется от 2,0 ГГц до 3,5 ГГц, а частота в турбо-режиме — от 4,6 до 4,9 ГГц. Объём кеша третьего уровня составляет от 48 до 336 Мбайт, показатель TDP — от 150 до 350 Вт. В серию вошли модели с разблокированным множителем для разгона («Х» в обозначении).

 Источник изображений: Intel

Источник изображений: Intel

Чипы Xeon 630 начального уровня предлагает четыре канала памяти DDR5 и 80 линий PCIe 5.0, в то время как более мощные процессоры Xeon 650/670/690 содержат восемь каналов памяти и 128 линий PCIe 5.0. Говорится о возможности использования модулей RDIMM-6400 и MRDIMM-8000 (только Xeon 670/690). Максимально допустимый объём ОЗУ составляет 4 Тбайт. Реализована поддержка CXL 2.0, что позволяет формировать дополнительны пулы памяти.

По заявлениям Intel, по сравнению с процессорами для рабочих станций предыдущего поколения прирост производительности в однопоточном режиме у Xeon 600 составляет до 9 %, в многопоточном режиме — до 61 %. Улучшения затронули встроенный аппаратный ускоритель Intel AMX (Advanced Matrix Extensions), предназначенный для повышения производительности в задачах ИИ, глубокого обучения и анализа данных. Если ранее он поддерживал операции INT8 и BFloat16, то теперь добавлен режим FP16. Среди прочего упомянуты технологии Intel vPro Enterprise и Intel Deep Learning Boost.

В паре с процессорами Xeon 600 будет использоваться новый набор логики Intel W890. Для подключения к CPU служит канал DMI 4.0 x8, обеспечивающий пропускную способность немногим менее 16 Гбайт/с. Чипсет предусматривает поддержку интерфейса USB 3.2 Gen 2×2 (20 Гбит/с), портов SATA-3, дополнительных линий PCIe 4.0, сетевых интерфейсов 1GbE и 2,5GbE, а также Wi-Fi 7.

При заказе процессоров Xeon 600 корпорация Intel призывают клиентов убедиться, что новая платформа подходит для их рабочих нагрузок. Чипы поступят в продажу в конце марта по цене от $499 до $7699. Некоторые модели будут доступны в коробочной версии: это изделия Xeon 654 (18 ядер), Xeon 658X (24 ядра), Xeon 676X (32 ядра), Xeon 678X (48 ядер) и Xeon 696X (64 ядра). Материнские платы на чипсете W890 готовят такие компании, как ASUS, Supermicro и Gigabyte. Готовые системы на основе Xeon 600 предложат Dell, HP, Supermicro, Boxx, Pudget Systems и другие поставщики.

Вместе с тем, как отмечает The Register, время для анонса Xeon 600 выбрано не совсем удачно. Чипы выходят на рынок на фоне проблем с цепочками поставок, из-за которых резко подскочили цены на память. Так, комплект из восьми модулей DDR5 RDIMM на 32 Гбайт каждый обойдётся более чем в $4000: это примерно на $1500 больше, чем шестью месяцами ранее. Сформировавшаяся ситуация может негативно отразиться на спросе на Xeon 600 среди потребителей.

Постоянный URL: http://servernews.ru/1136240
03.02.2026 [08:38], Владимир Мироненко

VDURA предложила программу Flash Relief Program для смягчения дефицита флеш-памяти

VDURA, заявившая, что теперь SSD корпоративного класса уже в 16 раз дороже HDD аналогичной ёмкости, анонсировала программу Flash Relief Program, в рамках которой клиенты получат доступ к хранилищам, по ёмкости и быстродействию не уступающие массивам VAST Data и WEKA, но вполовину дешевле с точки зрения TCO. В условиях дефицита NAND-памяти цены на SSD выросли в два-три раза, а гибридная архитектура VDURA, использующая накопители разных типов, обеспечивает превосходную производительность и ёмкость при вдвое меньшей стоимости, заявила компания.

 Источник изображения: VDURA

Источник изображения: VDURA

Как сообщает VDURA, клиенту достаточно предоставить требования к конфигурации файлового хранилища VAST, WEKA или любой другой высокопроизводительной All-Flash СХД, включая требования по производительность (пропускная способность, IOPS, задержка) и требования к ёмкости (сырая, полезная, эффективная), а VDURA в течение 24 ч. предоставит конкурирующее предложение, которое:

  • соответствует или превосходит требования к производительности;
  • соответствует или превосходит требования к ёмкости (полезная и эффективная);
  • снижает совокупную стоимость на 50 %.

VDURA называет следующие преимущества своего продукта:

  • Превышает рекомендации NVIDIA и AMD по производительности СХД для GPU;
  • Скорость чтения до 60 Гбайт/с, а записи — до 40 Гбайт/с на один флеш-узел;
  • Истинное программно-определяемое хранилище (SDS), которое не привязано к проприетарному оборудованию, что даёт адаптивность, доступность оборудования и отсутствие привязки к поставщику;
  • Надёжное и эффективное избыточное кодирование на файловом уровне с исправлением ошибок и редукцией данных;
  • Единое пространство имен с единой плоскостью данных и управления;
  • Онлайн-обновление ПО;
  • Линейная масштабируемость без снижения производительности.

Предложение VDURA заключается в том, что её гибридная параллельная ФС на основе SSD/HDD может компенсировать рост цен на SSD лучше, чем что-либо, предлагаемое производителями массивов All-Flash, отметил ресурс Blocks & Files. Если цены на SSD продолжат расти и не будет решена проблема дефицита, подобные заявления могут заставить потенциальных покупателей массивов All-Flash переключиться на гибридные системы СХД с автоматическим многоуровневым хранением данных. И даже использование б/у SSD, как предлагает VAST Data, вряд ли поможет в такой ситуации.

Постоянный URL: http://servernews.ru/1136216
30.01.2026 [20:24], Руслан Авдеев

От технологического наследия к построению будущего — Atos перезапустила бренд Bull для HPC, ИИ и квантовых инноваций

Печально известная своими финансовыми проблемами французская компания Atos официально перезапустила один из своих ведущих брендов. Теперь Bull позиционируется как глобальный лидер в HPC-, ИИ- и квантовых системах. Bull разрабатывает, внедряет и обслуживает оборудование и ПО, в том числе суперкомпьютеры. Bull позиционируется, как единственный европейский игрок, способный разрабатывать, выпускать и внедрять решения такого класса. Работа поддерживается командой исследователей и инженеров, производственными возможностями и др. Bull, как сообщают в самой компании, позволяет странам и отраслям полностью контролировать свои ИИ-мощности и данные.

Бизнес Bull основан на более чем вековом опыте в сфере вычислений и исследований, связанных с data science. Как утверждают в Atos, возрождение Bull — стратегически важная веха на пути бренда к формированию частной, независимой компании после подписания соглашения о покупке акций Францией 31 июля 2025 года. Корни у бренда европейские, но сейчас он, по словам Atos, занимает лидирующие позиции ещё и в Латинской Америке и Индии.

Bull владеет полным технологическим стеком, от разработки интегральных микросхем и интерконнектов до ИИ-платформ и приложений. Бренд обеспечивает надёжные решения промышленного уровня для критически важных секторов, включая, например, оборону и энергетику, одновременно снижая совокупную стоимость владения. По словам руководства бренда, с запуском Bull осуществляется «переподключение» к технологическому наследию для строительства будущего. Миссией компании называется обеспечение мощных, устойчивых и суверенных вычислений и ИИ-технологий, позволяющих уверенно и осмысленно внедрять инновации на уровне отраслей и целых наций.

 Источник изображения: Bull

Источник изображения: Bull

Примечательна судьба самой Atos Group. Хотя сама компания позиционирует себя как лидера в сфере цифровой трансформации с 63 тыс. сотрудников и ежегодной выручкой €8 млрд, действующим в 61 странах под двумя брендами (Atos для сервисов и Eviden для продуктов), дела у компании идут, мягко говоря, непросто. Atos не первый год теряет выручку по всем направлениям, а будущее компании всё более туманно. Поэтому Atos заключила сделку с французским государством, согласно которой ему будут переданы «золотые акции» Bull SA. После неоднократных попыток спасти компанию, частой смены директоров и даже новостей о её возможной национализации Францией, летом 2025 года появилась информация, что власти Франции сделали предложение купить подразделение Advanced Computing в составе группы Atos.

Постоянный URL: http://servernews.ru/1136099

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;