Материалы по тегу: hardware

09.09.2025 [17:00], Владимир Мироненко

Быстрее и «умнее»: SiFive представила второе поколени RISC-V-ядер Intelligent

SiFive представила семейство ядер Intelligent второго поколения с архитектурой RISC-V, включающее новые ядра X160 Gen 2 и X180 Gen 2, а также обновлённые решения X280 Gen 2, X390 Gen 2 и XM Gen 2. Новые решения разработаны для расширения возможностей скалярной, векторной и, в случае серии XM, матричной обработки данных, адаптированных для современных задач в сфере ИИ.

Как отметил ресурс EE Times, анонсируя новую линейку продуктов, SiFive стремится воспользоваться быстрорастущим спросом на решения для обработки ИИ-нагрузок, который, по прогнозам Deloitte, вырастет как минимум на 20 % во всех технологических средах, включая впечатляющий скачок на 78 % в сфере периферийных вычислений с использованием ИИ.

Ядра SiFive второго поколения позволяют решать критически важные задачи в области внедрения ИИ, в частности, в области управления памятью и ускорения нелинейных функций. Ключевым нововведением в процессорах серии X является их способность функционировать в качестве блока управления ускорителем (ACU). Это позволяет ядрам SiFive обеспечивать основные функции управления и поддержки для ускорителя заказчика через интерфейсы SiFive Scalar Coprocessor Interface (SSCI) и Vector Coprocessor Interface eXtension (VCIX). Данная архитектура позволяет заказчикам сосредоточиться на инновациях в обработке данных на уровне платформы, оптимизируя программный стек.

 Источник изображений: SiFive/ServeTheHome

Источник изображений: SiFive/ServeTheHome

Джон Симпсон (John Simpson), главный архитектор SiFive, сообщил ресурсу EE Times, что интеллектуальные ядра SiFive обеспечивают гибкость, сокращают трафик системной шины за счёт локальной обработки на чипе ускорителя и обеспечивают более тесную связь для задач пред- и постобработки. Он рассказал, что SiFive представила два важных усовершенствования в архитектуре, которые напрямую устраняют узкие места производительности: устойчивость к задержкам памяти и более эффективную подсистему памяти.

Функцию Memory Latency Tolerance позволяет снизить задержку загрузки. Симпсон рассказал, что блок скалярных вычислений, обрабатывающий все инструкции, отправляет векторные инструкции в очередь векторных команд (VCQ). При обнаружении такого инструкции одновременно отправляется запрос в подсистему памяти (кеш L2 или выше). Ранняя отправка запросов, отделённая от исполнения, позволяет быстрее получить ответ от памяти и поместить его в переупорядочиваемую настраиваемую очередь загрузки векторных данных (VLDQ). Это гарантирует готовность данных к моменту, когда инструкция в конечном итоге покинет VCQ, что приводит к «загрузке вектора в течение одного цикла».

Симпсон подчеркнул конкурентное преимущество решения, отметив: «Xeon, представленный на Hot Chips, может обслуживать 128 невыполненных запросов, и это топовый показатель для Xeon, а в нашем четырёхъядерном процессоре этот показатель составляет 1024». Эта «прекрасная технология» обеспечивает непрерывную обработку данных, эффективно предотвращая простои конвейера.

Более эффективная подсистема памяти, которая представляет собой ещё одно существенное обновление, основана на переходе от инклюзивной к неинклюзивной иерархии кешей. В инклюзивной системе кеширования предыдущего поколения данные из общего кеша L3 реплицировались в частные кеши L1/L2, что компания посчитала неэффективным расходом «кремния». Конструкция ядер второго поколения исключает копирование, что, по словам Симпсона, даёт «в 1,5 раза большую производительность по сравнению с первым поколением» при меньшей занимаемой площади на кристалле.

SiFive также интегрировала новый аппаратный конвейерный экспоненциальный блок. В то время как MAC-операции доминируют в рабочих ИИ-нагрузках, возведение в степень становится следующим серьёзным узким местом. Например, в BERT LLM, ускоренных матричным движком, операции softmax, включающие возведение в степень, занимают более 50 % оставшихся циклов. Программными оптимизациями SiFive сократила выполнение функции возведения в степень с 22 до 15 циклов, а новый аппаратный блок сокращает её до одной инструкции, уменьшая общее время выполнения функции до пяти циклов.

Программный стек для семейства Intelligence второго поколения поддерживает масштабируемость. В серии XM среда выполнения машинного обучения уже распределяет рабочие нагрузки между несколькими кластерами XM на одном кристалле. Впрочем, пока масштабирование за пределы одного кристалла требует дальнейшей разработки библиотеки межпроцессорного взаимодействия (IPC).

Флагманские решения X160 Gen 2 и X180 Gen 2 могут быть настроены для работы под управлением операционной системы реального времени, пишет SiliconANGLE. 32-бит IP-ядро Intelligence X160 разработано для оптимизации энергоэффективности и приложений с жесткими ограничениями по площади кристалла, в то время как 64-бит IP-ядро Intelligence X180 обеспечивает более высокую производительность и лучшую интеграцию с более крупными подсистемами памяти, сообщил ресурс CNX-Software.

X160 поставляется с кеш-памятью объёмом до 200 КиБ и памятью объёмом 2 МиБ. Помимо промышленного оборудования, ядро может найти применение в потребительских устройствах, таких как фитнес-трекеры. Кроме того, X160 можно установить в системах с несколькими ИИ-ускорителями для управления чипами и предотвращения изменения прошивки. Благодаря двум встроенным кешам общей ёмкостью более 4 МиБ ядро позволяет работать с большим объёмом данных. По данным SiFive, X160 подходит для обучения ИИ-моделей и использования в оборудовании ЦОД.

В свою очередь, ядро X280 ориентировано на потребительские устройства, такие как гарнитуры дополненной реальности, а X390 также может использоваться в автомобилях и инфраструктурных системах. Последнее ядро выполняет векторную обработку в четыре раза быстрее, чем X280.

Все пять продуктов Intelligence Gen 2 уже доступны для лицензирования, а появление первых чипов на их основе ожидается во II квартале 2026 года. SiFive сообщила, что два ведущих американских производителя полупроводников лицензировали новую серию X100 ещё до её публичного анонса. Они используют IP-ядро X100 в двух различных сценариях: одна компания задействует сочетание скалярного векторного ядра SiFive с матричным движком, выступающим в качестве блока управления ускорителем, а вторая использует векторный движок в качестве автономного ИИ-ускорителя.

Постоянный URL: http://servernews.ru/1128937
09.09.2025 [12:25], Сергей Карасёв

Microsoft присоединилась к Всемирной ядерной ассоциации

Корпорация Microsoft, по сообщению ресурса Datacenter Dynamics, присоединилась к Всемирной ядерной ассоциации (WNA) — международной некоммерческой организации со штаб-квартирой в Лондоне, которая занимается продвижением ядерной энергетики. World Nuclear Association была основана в 2001 году. Её основными направлениями деятельности являются поддержка передовых ядерных технологий, таких как малые модульные реакторы, содействие упрощению процессов лицензирования и укрепление глобальных цепочек поставок в области атомной энергетики.

На сайте WNA говорится, что на сегодняшний день в состав ассоциации входят компании и организации, базирующиеся в 44 странах по всему миру. Это, в частности, крупные предприятия в области атомного машиностроения, строительства и обращения с отходами, а также научно-исследовательские и опытно-конструкторские учреждения. В числе участников WNA значатся Accenture, CEZ, Constellation Energy, EDF, GE Vernova, Iberdrola, Oklo, PG&E и многие другие.

 Источник изображения: WNA

Источник изображения: WNA

«Членство Microsoft в ассоциации — это переломный момент для отрасли. Участие корпорации ускорит внедрение ядерной энергетики в масштабах, необходимых как для достижения климатических целей, так и для удовлетворения растущего спроса на энергию со стороны дата-центров», — говорит доктор Сама Бильбао-и-Леон (Sama Bilbao y León), генеральный директор WNA.

Сообщается, что подразделение по энергетическим технологиям Microsoft будет напрямую сотрудничать с техническими рабочими группами WNA с целью ускорения внедрения ядерной энергетики, оптимизации процессов регулирования и разработки новых коммерческих моделей. Конечная цель заключается в том, чтобы масштабировать ядерную энергетику для удовлетворения растущих потребностей цифровой экономики, в том числе в сегменте ЦОД.

Microsoft развивает ряд проектов в области ядерной энергетики. Ранее сообщалось, что редмондская корпорация формирует команду для работы над малыми атомными реакторами для питания дата-центров. Кроме того, Microsoft заключила 20-летний контракт с крупнейшим в США оператором АЭС Constellation Energy на поставку электроэнергии, которая будет производиться на площадке Three Mile Island в Пенсильвании. При этом Microsoft надеется, что ИИ ускорит разработку экономически эффективных коммерческих термоядерных реакторов, которые смогут обеспечить энергией крупные ЦОД.

Постоянный URL: http://servernews.ru/1128923
09.09.2025 [12:21], Сергей Карасёв

Microsoft потратит почти $20 млрд на аренду ИИ-инфраструктуру у Nebius

Корпорация Microsoft, по сообщению Datacenter Dynamics, подписала пятилетнее соглашение на использование вычислительной инфраструктуры компании Nebius (бывшая материнская структура «Яндекса»). Речь идёт об аренде серверов на основе GPU для ресурсоёмких нагрузок ИИ.

Nebius, напомним, занимается созданием ИИ-инфраструктуры с использованием ускорителей NVIDIA. У компании, в частности, есть площадки в Финляндии и во Франции. Кроме того, в конце 2024 году Nebius объявила о формировании своего первого вычислительного ИИ-кластера на территории США: система развёрнута на базе дата-центра Patmos в Канзас-Сити (штат Миссури).

По условиям заключённого договора, Microsoft с конца текущего года начнёт использовать вычислительные мощности нового дата-центра Nebius в Вайнленде (Vineland) на территории Нью-Джерси (США). Этот объект имеет мощность 300 МВт с перспективой наращивания ещё на 400 МВт.

 Источник изображения: Nebius

Источник изображения: Nebius

Стоимость контракта между Microsoft и Nebius составляет $17,4 млрд на пять лет. Причём, по условиям соглашения, сумма может быть увеличена до $19,4 млрд — если корпорации Microsoft потребуются дополнительные услуги и (или) мощности.

После анонса сделки стоимость акций Nebius подскочила примерно на 60 %. Предполагается, что сотрудничество с Microsoft поможет Nebius значительно расширить бизнес. При этом для выполнения условий контракта Nebius планирует в ближайшее время привлечь заёмные средства.

Нужно отметить, что Microsoft также арендует вычислительные мощности у CoreWeave: на эти цели редмондский гигант потратит почти $10 млрд в период с 2023-го по 2030 год. В 2024 году на долю Microsoft пришлось около 62 % выручки CoreWeave, которая достигла $1,9 млрд.

Постоянный URL: http://servernews.ru/1128926
09.09.2025 [09:49], Руслан Авдеев

Дональд Трамп пообещал IT-гигантам решить проблемы с энергоснабжением ЦОД

Президент США Дональд Трамп (Donald Trump) пообещал представителям крупного IT-бизнеса решить проблему с электроснабжением и присоединением к энергосетям. Индустрия ЦОД сталкивается с дефицитом электричества в Соединённых Штатах, сообщает The Register. На ужине в Белом доме присутствовали нынешние и бывшие топ-менеджеры IT-гигантов: Билл Гейтс (Bill Gates), Тим Кук (Tim Cook), Сэм Альтман (Sam Altman), Сундар Пичаи (Sundar Pichai), Арвинд Кришна (Arvind Krishna), Марк Цукерберг (Mark Zuckerberg) и др.

Президент пообещал устраненить препятствия для подключения дата-центров к электросети на федеральном уровне, хотя многие проблемы, вероятно, придётся решать на уровне отдельных штатов. В любом случае, предполагается значительно упростить процесс присоединения. На долю США уже приходится значительная часть мощностей мировых дата-центров, но увлечение бизнеса ИИ-проектами и одержимость Вашингтона конкуренцией с Китаем в гонке ИИ-технологий привели к росту инвестиций в новые ЦОД.

В августе сообщалось, что капитальные затраты на дата-центры только AWS превысят $100 млрд в год, что сопоставимо с ВВП ряда стран. В июле Meta объявила о намерении построить несколько кампусов ЦОД мультигигаваттного уровня. Проблема лишь в поиске достаточных объёмов электроэнергии и её доставки до ЦОД. В июне Deloitte Insights предупреждала, что потребность всех крупных объектов в США в энергии может увеличиться более чем в 30 раз за десятилетие, уже сегодня сроки ожидания по заявкам на подключение нередко достигают семи лет.

 Источник изображения: Heidi Kaden/unsplash.com

Источник изображения: Heidi Kaden/unsplash.com

К 2030 году счета американцев на электроэнергию могут вырасти на 70 %, если не принять срочные меры по увеличению мощностей электростанций и электросетей. В июле Трамп уже издал указ об упрощении ряда нормативов, касающихся дата-центров и энергетической инфраструктуры для них, в т.ч. линий электропередачи и электростанций. Это способно ускорить процесс одобрения проектов и подключения к сетям. А в конце июля Министерство энергетики США выделило бизнесу свои земли для ускоренного строительства ЦОД и электростанций. Администрация Трампа лояльнее всего относится к атомной энергетике.

Белый дом уже объявил о вложении Hitachi Energy $1 млрд в местное производство. В компании заявили, что инвестиции включают $457 млн на крупный завод для выпуска трансформаторов в Вирджинии, а также значительное расширение предприятий компании по всей стране. В Hitachi объявили, что перенос выпуска крупных трансформаторов на территорию США имеет решающее значение для создания прочной внутренней цепочки поставок и устранения «узких мест» в производстве, поскольку спрос на трансформаторы растёт вместе со спросом на электричество.

Постоянный URL: http://servernews.ru/1128888
08.09.2025 [19:09], Сергей Карасёв

Axelera AI представила ускоритель Metis M.2 Max для ИИ-задач на периферии

Стартап Axelera AI B.V. из Нидерландов анонсировал ускоритель Metis M.2 Max, предназначенный для ИИ-инференса на периферии. Новинка может использоваться, в частности, для работы с большими языковыми моделями (LLM) и визуально-языковыми моделями (VLM).

Metis M.2 Max представляет собой улучшенную версию изделия Metis M.2, дебютировавшего в 2023 году. В основу положен чип Axelera Metis AIPU, содержащий четыре ядра с открытой архитектурой RISC-V: ИИ-производительность достигает 214 TOPS на операциях INT8. Ускорители выполнены в форм-факторе M.2 2280, а для обмена данными служит интерфейс PCIe 3.0 x4.

У модели Metis M.2 Max по сравнению с оригинальной версией в два раза повысилась пропускная способность памяти (точные значения не приводятся). Её объём в зависимости от модификации составляет 1, 4, 8 или 16 Гбайт. Реализованы расширенные средства обеспечения безопасности, включая защиту целостности прошивки.

Новинка будет предлагаться в вариантах со стандартным и расширенным диапазоном рабочих температур: в первом случае он простирается от -20 до +70 °C, во втором — от -40 до +85 °C. Благодаря этому, как утверждается, Metis M.2 Max подходит для применения в самых разных областях, в том числе в промышленном секторе, розничной торговле, в сферах здравоохранения и общественной безопасности и пр.

 Источник изображения: Axelera AI

Источник изображения: Axelera AI

Разработчикам компания Axelera AI предлагает комплект Voyager SDK, который позволяет полностью раскрыть потенциал чипа Metis AIPU и упрощает развёртывание коммерческих приложений. Продажи ИИ-ускорителя Metis M.2 Max начнутся в IV квартале текущего года. Устройство будет поставляться отдельно и в комплекте с опциональным низкопрофильным радиатором охлаждения.

Постоянный URL: http://servernews.ru/1128893
08.09.2025 [17:26], Владимир Мироненко

d-Matrix начала тестирование чипа Pavehawk с поддержкой 3DIMC

Стартап d-Matrix объявил о разработке новой реализации технологии 3D-вычислений в памяти (3DIMC), которая обещает в 10 раз ускорить работу ИИ-моделей и в 10 раз повысить энергоэффективность по сравнению с текущим отраслевым стандартом HBM4, пишет ресурс SiliconANGLE.

Технический директор Судип Бходжа (Sudeep Bhoja) сообщил в блоге, что первый чип компании с поддержкой 3DIMC, d-Matrix Pavehawk, разработка которого заняла более двух лет, сейчас проходит тестирование. В Pavehawk логический блок, изготовленный с использованием 5-нм техпроцесса TSMC, располагается поверх чипа памяти и интегрирован с ним посредством технологии F2F (face-to-face).

По словам Бходжи, отраслевые тесты показывают, что производительность вычислений растёт примерно в 3 раза каждые два года, в то время как пропускная способность памяти — всего в 1,6 раза. Этот разрыв постоянно увеличивается, память уже стала узким местом в масштабировании ИИ. Компания утверждает, что простое увеличение количества ускорителей в ЦОД не решит проблему «стены памяти».

 Источник изображений: d-Matrix/ServeTheHome

Источник изображений: d-Matrix/ServeTheHome

HPCwire цитирует гендиректора: d-Matrix Сида Шета (Sid Sheth): «Модели быстро развиваются, и традиционные системы памяти HBM становятся очень дорогими, энергоёмкими и ограниченными по пропускной способности». По его словам, узким местом ИИ-инференса является память, а не только количество операций с плавающей запятой, но 3DIMC меняет правила игры. «Стекируя память в трёх измерениях и обеспечивая её более тесную интеграцию с вычислениями, мы значительно сокращаем задержку, увеличиваем пропускную способность и открываем новые возможности повышения эффективности», — подчеркнул он.

Компания отметила, что инференс, а не обучение, быстро становится доминирующей рабочей ИИ-нагрузкой. По словам Бходжи, CoreWeave недавно заявила, что 50 % её рабочих нагрузок теперь приходится на инференс, и аналитики прогнозируют, что в течение следующих двух-трех лет инференс будет составлять более 85 % всех корпоративных рабочих ИИ-нагрузок. Он подчеркнул, что компания не занимается перепрофилированием архитектур, созданных для обучения ИИ-моделей, — она с нуля разрабатывает решения, ориентированные на инференс.

Бходжа сообщил, что первые пользователи ИИ-ускорителей Corsair, среди которых есть и гиперскейлеры, и неооблака, убедились, что архитектура с упором на память может значительно повысить пропускную способность, энергоэффективность и скорость генерации токенов по сравнению с GPU. Он также отметил, что конструкция на основе чиплетов обеспечивает не только большую пропускную способность памяти, но и «невероятную» гибкость, позволяя внедрять технологии памяти нового поколения быстрее и эффективнее, чем монолитные архитектуры.

Бходжа заявил, что 3DIMC на порядок увеличит пропускную способность памяти и производительность для задач ИИ-инференса и обеспечит провайдерам сервисов и предприятиям возможность масштабировать их эффективно и экономично по мере появления новых моделей и приложений. С выводом Pavehawk на рынок компания занялось созданием следующего поколения архитектуры обработки в оперативной памяти, использующей 3DMIC, под названием Raptor.

«Наша архитектура следующего поколения Raptor будет включать 3DIMC и опираться на опыт, полученный нами и нашими клиентами в ходе тестирования Pavehawk. Благодаря вертикальному размещению памяти и тесной интеграции с вычислительными чиплетами, Raptor обещает преодолеть барьер в области памяти и выйти на совершенно новый уровень производительности и совокупной стоимости владения», — утверждает Бходжа.

Он добавил, что, поставив требования к памяти во главу угла при разработке своих решений — от Corsair до Raptor и далее — компания гарантирует, что инференс будет быстрее, доступнее и стабильнее при масштабировании. d-Matrix провела два раунда финансирования. В раунде A в 2022 году было привлечено $44 млн, а в раунде B в 2023 году – $110 млн, что в общей сложности составляет $154 млн. Компания сотрудничает с поставщиком решений компонуемых систем GigaIO.

Постоянный URL: http://servernews.ru/1128861
08.09.2025 [16:34], Сергей Карасёв

Hyper-Threading наоборот: Intel разрабатывает технологию программно-определяемых суперъядер

Корпорация Intel подала патентную заявку на технологию так называемых программно-определяемых суперъядер Software Defined Super Cores (SDC). Решение призвано устранить неэффективность традиционных высокопроизводительных ядер в составе современных CPU.

Отмечается, что в мощных процессорах высокопроизводительные ядра зачастую жертвуют энергоэффективностью ради увеличения быстродействия путём динамического повышения тактовой частоты. Кроме того, существуют проблемы аппаратного масштабирования. При использовании более крупных ядер уменьшается их общее количество, что ограничивает многопоточную производительность. В случае гибридных архитектур, сочетающих производительные и энергэффективные ядра, возникают дополнительные сложности при проектировании и тестировании.

 Источник изображения: Intel

Источник изображения: Intel

Новый подход Intel сводится к тому, что несколько соседних физических ядер объединяются в одно виртуальное суперъядро. Специальный программный инструмент разбивает программу на сегменты инструкций, которые затем обрабатываются параллельно физическими ядрами: например, одно ядро может обслуживать нечётные сегменты, другое — чётные. При этом для операционной системы и собственно приложения эти ядра создают иллюзию одного производительного ядра. Благодаря синхронизации достигается упорядоченная обработка кода.

 Источник изображения: Intel

Источник изображения: Intel

В одно суперъядро предлагается объединять прежде всего ядра, принадлежащие одному и тому же классу — например, только энергоэффективные или только производительные. Ядра могут совместно использовать свои кеши или работать независимо. В любом случае система гарантирует упорядочение памяти и архитектурную целостность. Перевод физических ядер в режим SDC может осуществляться динамически с учётом текущей нагрузки и особенностей работы конкретной программы.

Ключевыми преимуществами предложенной архитектуры являются повышение энергетической эффективности и возможность масштабирования ресурсов. Кроме того, SDC открывает путь к созданию более адаптивных вычислительных платформ.

Постоянный URL: http://servernews.ru/1128886
08.09.2025 [13:27], Руслан Авдеев

Gemini стал доступен в частных облаках Google Distributed Cloud

Компания Google анонсировала общую доступность ИИ-моделей Gemini в облаках Google Distributed Cloud (GDC), предназначенных для развёртывания на мощностях самих клиентов. В частности, генеративный ИИ будет доступен в частных корпоративных и правительственных платформах, сообщает Network World.

GDC является вариантом облака Google Cloud, предназначенным для жёстко регулируемых отраслей вроде здравоохранения или финансовых сервисов. Фактически такие облака скрываются на мощностях клиентов, прячась от внешнего мира за защитными системами компаний. Запуск Gemini в GDC позволяет организациям, обязанным соблюдать жёсткие требования к размещению данных и соответствовать ряду правил по некоторым другим параметрам, внедрять системы генеративного ИИ, не теряя контроля над конфиденциальной информацией.

GDC строятся на ускорителях семейств NVIDIA Hopper и Blackwell с автоматизированным распределением нагрузки, без необходимости дополнительных вмешательств для обновления ПО. В системе реализованы функции безопасности вроде аудита и контроля доступа, обеспечивающие клиентам максимальную прозрачность. Платформа также поддерживает функцию «конфиденциальных вычислений» Confidential Computing как для CPU (с Intel TDX), так и ИИ-ускорителями (с применением технологий NVIDIA) для защиты конфиденциальных данных и предотвращения их подделки и утечки.

 Источник изображения: Solen Feyissa/unspalsh.com

Источник изображения: Solen Feyissa/unspalsh.com

Модели Gemini обеспечивают обработку контента и мультимодальное понимание текста, изображений, аудио и видео. В Google заявляют, что это открывает множество возможных способов применения, включая многоязыковое, в том числе международное сотрудничество, автоматизированное составлении резюме документов и др., поддерживаются чат-боты и генерация кода с помощью искусственного интеллекта.

 Источник изображения: Google

Источник изображения: Google

Для работы Gemini требуется сертифицированное Google оборудование. Среди такового пока есть только одна модификация HGX H200 на базе Dell XE9680.

Постоянный URL: http://servernews.ru/1128882
08.09.2025 [13:04], Сергей Карасёв

Спрос на SSD корпоративного класса продолжает расти на фоне бума ИИ

Компания TrendForce обнародовала результаты исследования мирового рынка SSD корпоративного класса во II квартале текущего года: поставки в денежном выражении достигли $5,48 млрд. Для сравнения, в I четверти 2025-го отгрузки оценивались в $4,76 млрд. То есть, зафиксирован рост примерно на 15,1 %.

Аналитики отмечают, что повышение спроса обусловлено прежде всего стремительным развитием ИИ. Операторы дата-центров и гиперскейлеры продолжают активно закупать высокопроизводительные системы хранения данных на основе SSD.

 Источник изображения: TrendForce

Источник изображения: TrendForce

Ведущим игроком рынка является Samsung с продажами на уровне $1,9 млрд во II квартале нынешнего года, что соответствует росту на 0,5 % по отношению к I четверти 2025-го. При этом доля южнокорейского производителя сократилась в квартальном исчислении с 39,6 % до 34,6 %. На втором месте располагается SK Group (SK hynix + Solidigm), увеличившая отгрузки на 47,1 % — до $1,46 млрд: доля группы поднялась с 20,8 % до 26,7 %. Замыкает тройку Micron, у которой продажи в квартальном выражении упали на 7,9 % — до $784,6 млн. Эта компания контролирует 14,3 % отрасли против 17,9 % в I квартале 2025 года.

Далее идёт Kioxia, продемонстрировавшая рост выручки на 32,5 % по сравнению с предыдущим кварталом — до $750,3 млн, тогда как рыночная доля компании увеличилась с 11,9 % до 13,7 %. На пятом месте находится SanDisk, которая выручила около $213,0 млн, что на 8,2 % меньше, чем в предыдущем квартале: позиции компании ослабли с 4,9 % до 3,9 %.

Таким образом, суммарная выручка пяти ведущих поставщиков по итогам II квартала 2025 года достигла $5,11 млрд, что на 12,7 % больше по сравнению с предыдущим кварталом. Эти игроки сообща контролируют 93,2 % отрасли в денежном выражении. Кварталом ранее их суммарная доля была выше — приблизительно 95,1 %.

Постоянный URL: http://servernews.ru/1128880
08.09.2025 [12:11], Сергей Карасёв

Бывший гендиректор AWS Адам Селипски назначен на пост консультанта KKR по ИИ

Инвестиционная компания KKR, по сообщению ресурса Datacenter Dynamics, назначила на должность старшего консультанта по стратегиям в области технологий и ИИ Адама Селипски (Adam Selipsky), который ранее занимал пост генерального директора облачного провайдера Amazon Web Services (AWS).

Селипски с 1995-го по 2005 год работал в компании RealNetworks. Затем стал вице-президентом по маркетингу и поддержке AWS: в этой корпорации он проработал 11 лет, после чего в 2016 году возглавил разработчика ПО для визуализации данных Tableau. В 2021 году вернулся в Amazon, начав исполнять обязанности гендиректора AWS.

В KKR Селипски займётся вопросами стратегии, распределения капитала и управления бизнесом Real Assets стоимостью $179 млрд. Речь идёт об активах в сферах дата-центров, оптоволоконных и беспроводных сетей, а также энергетики. В настоящее время KKR владеет и управляет большим количеством ЦОД — 155 объектов по всему миру, а также имеет проектные мощности на 15 ГВт. В активе KKR — двенадцать компаний, которые специализируются на оптоволоконных сетях, обслуживающих почти 30 млн домохозяйств. Компания управляет более чем 130 тыс. объектов беспроводной инфраструктуры по всей Европе и в Азиатско-Тихоокеанском регионе.

 Источник изображения: AWS

Источник изображения: AWS

Кроме того, KKR является владельцем фирмы CoolIT, специализирующейся на разработке систем прямого жидкостного охлаждения. В начале текущего года KKR инвестировала средства в Gulf Data Hub — одного из крупнейших операторов дата-центров на Ближнем Востоке. KKR также подписала соглашение на $50 млрд о стратегическом партнёрстве с американской инвестиционной компанией Energy Capital Partners (ECP) с целью строительства ЦОД и реализации энергетических проектов.

Ранее KKR в партнёрстве с T-Mobile приобрела поставщика услуг широкополосного доступа в интернет Metronet. Плюс к этому KKR является совладельцем оператора ЦОД CyrusOne. Сообщается также, что KKR ведёт переговоры о приобретении ST Telemedia Global Data Centres, в которой ей принадлежит доля в 15 %, и финансировании дата-центров Meta.

Постоянный URL: http://servernews.ru/1128869

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;