Материалы по тегу: hardware

25.09.2025 [11:28], Сергей Карасёв

Solidigm представила первые в мире E1.S SSD с СЖО для ИИ-серверов

Компания Solidigm, принадлежащая южнокорейской SK Hynix, анонсировала, как утверждается, первые в мире SSD формата E1.S, оснащённые системой жидкостного охлаждения. Устройства предназначены для использования в безвентиляторных серверах с высокой плотностью компоновки, ориентированных на приложения ИИ.

О новой СЖО для SSD впервые стало известно в марте нынешнего года. Решение предполагает использование охлаждающей пластины, которая располагается с одной стороны накопителя. При этом сами водоблоки и SSD монтируются бок о бок в дисковой корзине, что позволяет отводить тепло от обеих сторон твердотельного устройства хранения. Допускается горячая замена накопителей.

 Источник изображений: Solidigm

Источник изображений: Solidigm

СЖО подходит для использования с накопителями Solidigm D7-PS1010 стандарта E1.S толщиной 9,5 и 15 мм. Эти изделия, построенные на 176-слойных чипах флеш-памяти TLC 3D NAND, оснащены интерфейсом PCIe 5.0 x4 (NVMe). Доступны варианты вместимостью 3,84 и 7,68 Тбайт. Скорость передачи данных при последовательном чтении достигает 14 500 Мбайт/с, при последовательной записи — 10 500 Мбайт/с (8400 Мбайт/с у модификации на 3,84 Тбайт). Показатель IOPS при произвольном чтении находится в диапазоне 3,2–3,3 млн, при произвольной записи — 315–400 тыс.

Solidigm отмечает, что СЖО обеспечивает целенаправленный отвод тепла непосредственно от критически важных компонентов по обеим сторонам SSD, благодаря чему повышаются стабильность и производительность при высоких нагрузках. При этом увеличивается плотность монтажа компонентов, что помогает экономить пространство в серверах и, в конечном итоге, в дата-центрах.

Компания Solidigm сотрудничает с ведущими производителями серверного оборудования для интеграции нового решения в передовые ИИ-системы. В число партнёров, в частности, входит Supermicro. Утверждается, что новые SSD могут использоваться в самых современных архитектурах с жидкостным охлаждением, включая серверы Supermicro на базе NVIDIA HGX B300.

Постоянный URL: http://servernews.ru/1129806
25.09.2025 [07:58], Владимир Мироненко

Micron объявила о рекордной выручке за последний квартал и весь 2025 финансовый год

Компания Micron Technology опубликовала финансовые результаты за IV квартал и весь 2025 финансовый год, завершившийся 28 августа, показав рекордную выручку, увеличив валовую прибыль и превысив прогноз по прибыли на акцию. Годовая выручка выросла почти на 50 % до 37,4 млрд, что является новым рекордом для компании. Прибыль на акцию (Non-GAAP) за год достигла $8,29, что на 538 % больше, чем в предыдущем финансовом году.

Выручка за IV квартал выросла год к году на 46 % до рекордного значения $11,33 млрд, превысив консенсус-прогноз LSEG в размере $11,22 млрд, согласно данным CNBC. Скорректированная прибыль (Non-GAAP) на разводнённую акцию составила $3,03, что на 59 % больше, чем в предыдущем квартале, и на 157 % больше, чем годом ранее, а также больше консенсус-прогноза LSEG в размере $2,86. Чистая прибыль (GAAP) составила $3,2 млрд, или $2,83 на разводнённую акцию, против $887 млн, или $0,79 на акцию, годом ранее. Валовая прибыль за квартал выросла до 41 %, что на 17 п.п. больше, чем в предыдущем году.

 Источник изображений: Micron

Источник изображений: Micron

Micron изменила структуру отчётности своих бизнес-подразделений. До прошлого квартала у неё было в отчёте четыре бизнес-подразделения, включая Compute and Networking (CNBU), мобильное подразделение (Mobile, MBU) подразделение встраиваемых решений (Embedded, EBU) и подразделение решений для СХД (SBU). Теперь в отчёте указаны подразделения под названиями «Облачная память» (Cloud Memory, CMBU), «Основные данные» (Core Data, CDBU), «Мобильные устройства и клиентские устройства» (Mobile and Client, MCBU) и «Автомобильные и встраиваемые системы» (Auto and Embedded, AEBU). В связи с этим затрудняется анализ данных о производстве решений для СХД.

Продажи подразделения CMBU, поставляющего память, включая HBM, для облачных провайдеров, выросла год к году на 214 % до $4,54 млрд, составив 40 % от общей выручки компании. Валовая прибыль подразделения достигла 59 %, что на 120 п.п. больше, чем в предыдущем квартале. Вместе с тем выручка подразделения CDBU, поставляющего чипы памяти для ЦОД, сократилась на 22 % до $1,58 млрд с $2,05 млрд годом ранее.

Выручка от продаж DRAM в IV финансовом квартале достигла $8,98 млрд, что на 69 % больше, чем в предыдущем году, и составляет 79 % от общей выручки. Выручка от продаж NAND за IV квартал составила $2,25 млрд. Выручка от HBM за квартал достигла почти $2 млрд, что означает прогноз годовой доходности (ARR) почти в $8 млрд, благодаря стремительному росту продаж HBM3E. Как сообщает Blocks & Files, компания имеет соглашения практически со всеми клиентами на подавляющее большинство поставок HBM3E в 2026 календарном году. «Мы ведём активные переговоры с клиентами о спецификациях и объёмах поставок HBM4 и рассчитываем заключить соглашения о продаже оставшейся части общего объёма поставок HBM на 2026 календарный год в ближайшие месяцы», — сообщила Micron.

Micron Санджей Мехротра (Sanjay Mehrotra) заявил, что компания достигла значительного прогресса в строительстве завода по сборке и тестированию HBM в Сингапуре, что позволит увеличить поставки этой памяти с 2027 календарного года. Он также отметил, что техпроцесс 1γ достиг зрелости в рекордные сроки. «Мы стали первыми в отрасли, кто начал поставлять DRAM 1γ, и будем использовать 1γ во всем нашем портфеле DRAM. В этом квартале мы получили первый доход от клиента-гиперскейлера по нашим продуктам DRAM 1γ для серверов», — добавил он. Капитальные затраты компании за квартал составили $4,9 млрд, в основном из-за инвестиций в производство DRAM.

У Micron есть шесть клиентов-покупателей памяти HBM. Компания сообщила, что доля поставок HBM, вероятно, снова вырастет и будет соответствовать общей доле DRAM на рынке в III квартале этого календарного года. Поскольку ожидается, что объём рынка HBM в 2026 году составит $50–60 млрд, ожидаемая доля Micron в 22,5 % составит $12,58 млрд, то есть, по $3,1 млрд в квартал, подсчитал Blocks & Files. Micron заявила, что к 2030 году объём целевого рынка HBM достигнет $100 млрд. «Цена на HBM4 на самом деле значительно выше, чем на HBM3E», — сообщил агентству Reuters директор по развитию бизнеса Сумит Садана (Sumit Sadana). «Из-за очень напряженной ситуации в отрасли… мы ожидаем довольно высокой окупаемости инвестиций в наш бизнес HBM», — добавил он.

Micron прогнозирует продажи в I квартале 2026 финансового года в размере $12,50 млрд ± $300 млн, по сравнению со средним прогнозом аналитиков в $11,94 млрд, согласно данным, собранным LSEG. Micron также прогнозирует скорректированную валовую прибыль в размере 51,5 % ± 1,0 %, что значительно выше прогнозируемых аналитиками 45,9 %. Рост валовой прибыли обусловлен «лучшей, чем ожидалось, ценовой конъюнктурой», отметил Киннгай Чан (Kinngai Chan), аналитик Summit Insights. Micron заявила, что ожидает рост продаж решений для серверов в 2025 календарном году примерно на 10 %, что «выше предыдущих ожиданий на уровне нескольких процентов», при этом рост как в ИИ-сегментах, так и в сегментах традиционных серверов будет способствовать увеличению спроса на оперативную память.

Постоянный URL: http://servernews.ru/1129797
24.09.2025 [18:13], Руслан Авдеев

AI Pathfinder намерена потратить £18,4 млрд на два ИИ ЦОД в Великобритании

Компания AI Pathfinder, новичок на рынке ЦОД, объявила о намерении вложить до £18,4 млрд ($24,86 млрд) в цифровую инфраструктуру Великобритании. В частности, планируется строительство объектов в Англии и Шотландии, сообщает Datacenter Dynamics. Компания готовится потратить £3,4 млрд ($4,6 млрд) на дата-центр в графстве Нортгемптоншир (Northamptonshire). Первую фазу проекта намерены ввести в эксплуатацию ещё до конца текущего года. До £15 млрд ($20,2 млрд) пойдут на ЦОД в Эйршире (Ayrshire) в технопарке i3.

Хотя компания не раскрывает точное местоположение нового ЦОД в Англии, она сообщила, что тот будет готов к эксплуатации к декабрю 2025 года. Первый этап строительства включает создание «ИИ-фабрики» на решениях Dell и NVIDIA, способной выполнять сложные ИИ-задачи. В Шотландии первоначальные инвестиции намечены на 2026 год, там будет развёрнуто значительно количество ИИ-ускорителей. Ожидается, что площадка на 1 ГВт превратится в один из крупнейших узлов ИИ-инфраструктуры в Европе, с потенциалом масштабирования до 1,5 ГВт.

 Источник изображения: James Sullivan/unsplash.com

Источник изображения: James Sullivan/unsplash.com

По данным AI Pathfinder, компания будет использовать мощности для предоставления ИИ-сервисов клиентам из частных и государственных структур, без сдачи в аренду гиперскейлерам. В компании заявляют, что медленное внедрение ИИ может стать экзистенциальным риском для организаций всех профилей, а её платформа «ИИ как услуга» (AI-as-a-Service) позволит бизнесу, госслужбам и публичным сервисам внедрять инновации «со скоростью гиперскейлеров» без ущерба безопасности и конфиденциальности.

По некоторым данным, AI Pathfinder является дочерней структурой инвестиционной группы Salamanca Group, специализирующейся на недвижимости. Последний утверждает, что привлёк £14 млрд ($18,9 млрд) на финансирование своих проектов, в том числе не связанных с ЦОД. Обе компании имеют общий адрес в Лондоне, а также «делят» некоторых топ-менеджеров. Как будут финансироваться новые ЦОД и в какие сроки потратят все выделяемые средства, пока не разглашается.

На прошлой неделе также были анонсировании крупные инвестиции в ИИ-инфраструктуру Великобритании со стороны американских IT-компаний. Google потратит £5 млрд ($6,9 млрд), а BlackRock — $678 млн. Также об инвестициях в ИИ ЦОД в Великобритании на £1,5 млрд ($2 млрд) заявила CoreWeave, а OpenAI и NVIDIA объявили о запуске проекта Stargate UK совместно с Nscale.

Постоянный URL: http://servernews.ru/1129763
24.09.2025 [16:55], Владимир Мироненко

OpenAI арендует, а не купит чипы у NVIDIA в рамках $100-млрд сделки

В СМИ появились новые подробности о сделке NVIDIA и OpenAI, в рамках которой чипмейкер инвестирует в OpenAI $100 млрд. Как сообщает газета The Financial Times, переговоры прошли напрямую между гендиректором NVIDIA Дженсеном Хуангом (Jensen Huang) и главой OpenAI Сэмом Альтманом (Sam Altman). Главы компаний обсуждали подробности соглашения практически без официальных консультаций с банками, которые обычно выступают посредниками в подобных случаях.

По данным The Information, в числе обсуждаемых вопросов было применение новой бизнес-модели лизинга чипов. Вместо того чтобы напрямую приобретать ускорители NVIDIA, OpenAI фактически будет брать у NVIDIA чипы в аренду с постепенной оплатой, что потенциально снизит первоначальные затраты на 10–15 % в течение пяти лет. Точные условия аренды или лизинга не разглашаются. У кого останутся чипы после окончания срока действия договора, тоже не говорится.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Данный подход отражает более широкую тенденцию в ИИ-отрасли, где капиталоёмкая ИИ-инфраструктура рассматривается скорее как услуга, чем как основной актив. Такая бизнес-модель позволяют компаниям быстро масштабироваться без значительных капитальных затрат, в то время как NVIDIA обеспечивает себе долгосрочные источники дохода. Как отметил Альтман, сделка знаменует собой «новую модель финансирования <…>, при которой мы можем платить постепенно, а не покупать всё сразу». «Чипы и системы составляют огромную [долю] стоимости, и оплатить её авансом сложно», — добавил он.

По словам аналитиков, действия Хуанга, направленные на то, чтобы сделать NVIDIA «предпочтительным стратегическим партнёром OpenAI в области вычислений и сетевых технологий», затруднят переход ИИ-разработчиков на конкурирующие чипы. Также укрепляет позиции компании в отрасли программная платформа NVIDIA CUDA, ставшая стандартным инструментом написания ИИ-приложений. Удерживая ИИ-разработчиков в своей экосистеме, Хуанг инвестирует в OpenAI, а также в десятки других стартапов, занимающихся ИИ-приложениями, облачными вычислениями, робототехникой и здравоохранением, что «многократно окупится для NVIDIA в будущем», говорят эксперты.

Постоянный URL: http://servernews.ru/1129770
24.09.2025 [15:33], Руслан Авдеев

«Яндекс» строит во Владимирской области новый ЦОД, где разместится новая зона доступности Yandex Cloud

Yandex Cloud намерена запустить в начале 2026 года новую зону доступности на базе дата-центра компании, сообщают «Ведомости». Это уже шестой ЦОД «Яндекса», его мощность составит более 40 МВт. Новый объект разместят неподалёку от уже действующего дата-центра «Яндекса». По данным пресс-службы «Яндекса», зона будет обеспечивать (минимальную) задержку до соседней зоны менее 1 мс, а общая ёмкость канала составит 25,6 Тбит/с.

В компании подчёркивают, что такие показатели позволят ускорить работу критически важных для банков, ритейлеров и других крупных клиентов сервисов, требующих транзакций, бронирования и запросов во внутренние базы данных. Новая зона доступности получит независимые каналы для связи с другими зонами, что повысит общую надёжность системы.

В «Яндексе» подчеркнули, что спрос на облака только увеличивается, в I полугодии 2025-го спрос на vCPU в Yandex Cloud вырос на 29,6 % год к году. Также в компании утверждают, что она первой в России запустила инструменты для проведения учений по отказоустойчивости инфраструктуры. PUE нового объекта будет на уровне 1,1 — благодаря использованию фрикулинга в течение всего года.

 Источник изображения: Яндекс

Источник изображения: Яндекс

Как сообщают «Ведомости», по оценкам экспертов Apple Hills Digital, инвестиции в проект превышают 15–20 млрд руб. Новая зона доступности будет драйвером потребления сервисов текущими клиентами «Яндекса». Эксперты предполагают, что новое решение усилит позиции компании на рынке отечественных облаков. На фоне высокой фрагментированности российского облачного рынка у «Яндекса» сильная позиция, которую дополнительно укрепит открытие новой зоны доступности. В апреле сообщалось, что в Можайском округе Московской области построят очередной дата-центр «Яндекса» с инвестициями в объёме $16 млрд. Ввод в эксплуатацию запланирован на 2027 год.

Постоянный URL: http://servernews.ru/1129768
24.09.2025 [13:37], Сергей Карасёв

Raspberry Pi готовит вычислительный модуль CM0 с поддержкой Wi-Fi 4 и Bluetooth 4.2 LE

Компания Raspberry Pi, по сообщениям сетевых источников, продемонстрировала в Китае на мероприятии China International Industrial Expo вычислительный модуль Compute Module 0 (CM0). Ожидается, что новинка поступит в продажу по ориентировочной цене от $18.

Основой решения служит система Raspberry Pi RP3A0 SiP (System-in-Package), которая содержит процессор Broadcom BCM2710A1 и 512 Мбайт оперативной памяти LPDDR2. В свою очередь, чип BCM2710A1 объединяет четыре вычислительных ядра Arm Cortex-A53 с частотой 1 ГГц, графический ускоритель VideoCore IV с поддержкой OpenGL ES 1.1/2.0 и VPU-блок с возможностью декодирования материалов H.264/MPEG-4 1080p30 и кодирования H.264 1080p30.

 Источник изображений: CNX Software

Источник изображений: CNX Software

Новинка будет доступна в модификациях без встроенной флеш-памяти (Raspberry Pi CM0 Lite), а также с накопителем eMMC вместимостью 8 или 16 Гбайт. В оснащение опционально могут быть включены контроллеры Wi-Fi 4 (802.11b/g/n) и Bluetooth 4.2 LE. Говорится о поддержке интерфейсов SDIO (только Raspberry Pi CM0 Lite), HDMI, TV DAC, MIPI DSI (4 линии), DPI (Display Parallel Interface), MIPI CSI (4 линии), PCM, USB 2.0, 28 × GPIO, UART, SPI, 2 × I2C. Размеры вычислительного модуля составляют 39 × 33 мм. Диапазон рабочих температур простирается от -20 до +85 °C.

Для новинки будет доступна дополнительная интерфейсная плата Raspberry Pi CM0 I/O Board. Она оснащена разъёмом HDMI, двумя портами Micro-USB (питание и данные), коннекторами MIPI-DSI и MIPI-CSI, слотом для карты microSD и 40-контактной колодкой GPIO. Решение, как отмечает CNX Software, по всей видимости, сможет работать под управлением Raspberry Pi OS.

Постоянный URL: http://servernews.ru/1129746
24.09.2025 [12:52], Руслан Авдеев

Гигаватт в неделю: OpenAI задумала развернуть крупнейшее производство ИИ-инфраструктуры

По словам главы OpenAI Сэма Альтмана (Sam Altman), ИИ-сервисы растут удивительными темпами, а в будущем они будут ещё более впечатляющими. По его мнению, по мере того как искусственный интеллект становится всё «умнее», доступ к нему становится базовым драйвером экономики и, в конце концов, такой доступ, возможно, признают одним из фундаментальных прав человека. Практически каждый захочет, чтобы ИИ всё больше работал от его имени.

Для того, чтобы обеспечить мировые потребности в инференсе и обучении ИИ-моделей для их дальнейшего совершенствования, уже сегодня закладываются основы для значительного расширения строительства ИИ-инфраструктуры. Как утверждает Альтман, если ИИ останется на той траектории развития, которую прогнозируют в компании, пользователям будут доступны весьма впечатляющие возможности. Возможно, обладая 10 ГВт вычислительных мощностей, ИИ сможет найти способ лечения рака или оптимизировать процесс получения знаний для каждого учащегося в мире персонально.

Если же человечество будет ограничено в вычислительных мощностях, придётся выбирать, чему отдать приоритет. При этом никто не хочет делать такой сложный выбор, поэтому стоит наращивать вычислительную инфраструктуру. Год назад Альтман убеждал власти США в необходимости постройки целой сети 5-ГВт ЦОД для обеспечения национальной безопасности.

 Источник изображения: Jeriden Villegas/unsplash.com

Источник изображения: Jeriden Villegas/unsplash.com

OpenAI рассчитывает создать производство, способное создавать 1 ГВт ИИ-инфраструктуры еженедельно. Выполнить этот план будет нелегко, на это уйдут годы и потребуются инновации на всех уровнях, от чипов до энергетики, строительства и робототехники. Тем не менее бизнес активно работает по всем этим направлениям и считает эпохальные изменения возможными.

В OpenAI считают, что речь идёт о самом важном инфраструктурном проекте за всю историю, причём компания немало делает в США уже сегодня. При этом Альтман отметил, что «прямо сейчас» некоторые страны строят заводы по производству чипов и новые энергетические мощности намного быстрее, чем в США, но Альтман и его единомышленники намерены изменить такое положение дел.

В следующую пару месяцев компания намерена раскрыть некоторые из своих планов, чтобы претворить их в жизнь. Позже в этом году компания расскажет и про финансовую сторону вопроса. С учётом того, что увеличение вычислительных мощностей способствует росту выручки, у компании уже есть некоторые «интересные новые идеи». На днях сообщалось, что OpenAI потратит $100 млрд на аренду резервных ИИ-серверов у облачных провайдеров, а чуть позже появились данные, что NVIDIA инвестирует в OpenAI $100 млрд, в основном пойдут на покупку её же ускорителей.

Постоянный URL: http://servernews.ru/1129748
24.09.2025 [12:27], Руслан Авдеев

OpenAI, Oracle и SoftBank построят в США ещё пять ИИ ЦОД для проекта Stargate

OpenAI, Oracle и SoftBank объявили о намерении построить пять новых дата-центров для ИИ-проекта Stargate, реализуемого в США, сообщает Reuters. По-видимому, партнёрам удалось преодолеть препятствия, которые мешали активному развитию проекта. По словам главы OpenAI Сэма Альтмана (Sam Altman), ИИ сможет выполнить своё предназначение только если создать для него вычислительную базу.

Сообщается об открытии трёх новых дата-центров совместно с Oracle в округах Шакелфорд (Shackelford,Техас), Донья-Ана (Doña Ana, Нью-Мексико) и где-то на Среднем Западе. Ещё два ЦОД построят в Лордстауне (Lordstown, Огайо) и округе Майлам (Milam, Техас) будут построены OpenAI, SoftBank и её дочерней структурой.

Новые площадки, расширение кампуса Oracle-OpenAI в Абилине (Abilene, Техас) и совместные проекты с CoreWeave позволят в следующие три года довести общую мощность ЦОД Stargate до почти 7 ГВт, а инвестиции должны превысить $400 млрд. В целом проект предполагал строительство ЦОД мощностью 10 ГВт за $500 млрд. Ранее глава OpenAI заявил, что компания готова потратить триллионы долларов на ИИ-инфраструктуру.

 Источник изображения: Mohamed Nohassi/unsplash.com

Источник изображения: Mohamed Nohassi/unsplash.com

Альтман также сообщил о намерении создать в США фабрику для производства 1 ГВт ИИ-инфраструктуры в неделю. Ранее NVIDIA объявила о намерении инвестировать в OpenAI $100 млрд в обмен на закупки её ИИ-чипов. Но по словам, источников, знакомых с вопросом, OpenAI и партнёры намерены использовать и заёмное финансирование для аренды ИИ-ускорителей в рамках проекта Stargate.

Постоянный URL: http://servernews.ru/1129755
24.09.2025 [09:37], Владимир Мироненко

Расходы ИИ-отрасли к 2030 году могут оказаться на $800 млрд больше её доходов

Заявления ИИ-компаний о планах потратить гигантские суммы на расширение инфраструктуры вызывают у аналитиков резонные вопросы о том, насколько такие вложения экономически и технологически обоснованы и подтверждены расчётами, отмечает Bloomberg. Так, OpenAI намерена со временем потратить триллионы долларов на ИИ ЦОД, но пока не спешит продемонстрировать, как она заработает, чтобы покрыть такие расходы. По оценкам консалтинговой фирмы Bain & Co., дефицит средств может быть гораздо больше, чем предполагалось ранее.

Согласно отчёту Bain Global Technology Report к 2030 году компаниям в сфере ИИ потребуется $2 трлн совокупной годовой выручки для покрытия затрат на вычислительные мощности, необходимые для удовлетворения прогнозируемого спроса. Но их выручка, вероятно, будет на $800 млрд меньше этой суммы, поскольку, по прогнозам Bain, монетизация сервисов вроде ChatGPT отстаёт от потребностей в расходах на ЦОД и связанную с ними инфраструктуру. Экономическая эффективность ИИ-решений, т.е. прибыль ИИ-компаний, отстаёт от темпов роста спроса на вычислительные мощности и электроэнергию.

 Источник изображения: bert b / Unsplash

Источник изображения: bert b / Unsplash

OpenAI ежегодно теряет миллиарды долларов и ставит во главу угла рост, а не прибыль, но ожидает выхода на положительный денежный поток к 2029 году, сообщает Bloomberg. По данным Bloomberg Intelligence, к началу следующего десятилетия общие годовые расходы крупнейших технологических компаний, включая Microsoft., Amazon и Meta, на ИИ-технологии вырастут до более чем $500 млрд. Выпуск новых ИИ-моделей от OpenAI, DeepSeek и др. стимулирует спрос на ИИ-сервисы и побуждает всю отрасль увеличивать инвестиции.

По оценкам Bain, к 2030 году глобальные ИИ-мощности вырастут до 200 ГВт, при этом на США будет приходиться половина этого объёма. Прорывы в разработке технологий и алгоритмов позволят облегчить задачу, однако ограничения в цепочке поставок или дефицит электричества могут помешать прогрессу, утверждают аналитики. «Если нынешние законы масштабирования останутся в силе, ИИ будет создавать всё большую нагрузку на цепочки поставок по всему миру», — отмечает Bain.

Помимо инфраструктуры, компании в сфере ИИ тратят огромные средства на разработку продуктов. Одним из направлений является создание ИИ-агентов, способных автономно выполнять многоэтапные задачи. По оценкам Bain, в течение следующих трёх-пяти лет до 10 % расходов компаний на технологии будут приходиться на развитие основных возможностей ИИ, включая платформы ИИ-агентов.

 Источник изображения: Denny Müller / Unsplash

Источник изображения: Denny Müller / Unsplash

Отчёт Bain также содержит прогноз роста в таких областях, как квантовые вычисления. Эта новая технология может увеличить рыночную стоимость на $250 млрд в таких отраслях, как финансы, фармацевтика, логистика и материаловедение. Несмотря на ожидания некоторых аналитиков прорыва, Bain прогнозирует постепенный рост рынка квантовых вычислений с ранним внедрением в узких областях в течение следующих 10 лет и более широким внедрением со временем.

Bain также отметила, что гуманоидные роботы становятся всё более распространёнными, привлекая инвестиции, но их внедрение находится на ранней стадии и в значительной степени зависит от человеческого контроля. По словам консалтинговой компании, коммерческий успех этого направления будет зависеть от готовности экосистемы, и компании, которые первыми начнут внедрять роботов, скорее всего, станут лидерами отрасли.

Постоянный URL: http://servernews.ru/1129737
23.09.2025 [17:40], Владимир Мироненко

Oracle назначила сразу двух гендиректоров

В понедельник Oracle объявила о назначении Клэя Магоуйрка (Clay Magouyrk) и Майка Сицилии (Mike Sicilia) новыми гендиректорами, поскольку Сафра Кац (Safra Catz) покидает эту должность после более чем десяти лет руководства, чтобы занять пост исполнительного вице-председателя совета директоров. «Сейчас, когда компания находится на пике своей формы, самое время передать пост генерального директора следующему поколению способных руководителей», — заявила Кац CNBC.

По данным источников The Wall Street Journal, 63-летняя Кац не рассчитывала, что останется генеральным директором надолго, так что всё к этому шло. Высшее руководство Oracle начало обсуждать кадровые перестановки несколько месяцев назад, а Кац заявила о своей готовности к ним после успешного квартала Oracle, сообщил источник WSJ. Что примечательно, Oracle называет её преемников генеральными директорами, а не соруководителями. Внутри компании Магоуйрк и Сицилия считаются более сильными специалистами, чем Кац, известная своей финансовой прозорливостью. По словам источника WSJ, их повседневная работа существенно не изменится. Магоуйрк будет курировать облачный бизнес компании, а Сицилия займётся продажей продуктов Oracle.

 Источник изображения: Viva Luna Studios / Unsplash

Источник изображения: Viva Luna Studios / Unsplash

Председатель совета директоров и технический директор Oracle Ларри Эллисон (Larry Ellison) заявил, что оба генеральных директора были выбраны благодаря их лидерским качествам и опыту в области ИИ, пишет CRN. «Многолетний опыт Клэя в руководстве крупным и быстрорастущим подразделением OCI продемонстрировал его готовность к роли генерального директора», — отметил он. Эллисон также сообщил, что Сицилия последние несколько лет занимался модернизацией бизнеса Oracle по разработке отраслевых приложений, включая Oracle Health, с использованием новейших ИИ-технологий. «Несколько лет назад Клэй и Майк начали внедрение ИИ в инфраструктуру и приложения Oracle — и это даёт плоды. Они оба — проверенные лидеры, — сказал Эллисон. — У Oracle блестящее будущее».

Клэй Магоуйрк (39 лет) перешёл в компанию в 2014 году из AWS. В качестве одного из основателей команды разработчиков облачных решений Oracle, он руководил разработкой и внедрением в OCI высокопроизводительной облачной платформы второго поколения, которая обеспечивает работу как публичных облачных ЦОД, так и гигаваттных ИИ ЦОД. Как сообщает Oracle, под руководством Магоуйрка OCI добилась роста и стала ведущей платформой для обучения и инференса ИИ.

Майк Сицилия (54 года) присоединился к Oracle после приобретения Primavera Systems в 2008 году. Он являлся президентом Oracle Industries, курируя разработку ПО для таких секторов как здравоохранение, банковское дело и розничная торговля, а также продвигая использование генерации приложений на основе намерений и встроенных ИИ-агентов для замены традиционного программирования при разработке приложений Oracle.

 Источник изображения: Viva Luna Studios / Unsplash

Источник изображения: Viva Luna Studios / Unsplash

Эксперты отмечают, что наличие двух человек у руля компании может привести к конфликтам из-за возможного несовпадения характеров. Но положение Oracle уникально, поскольку Ларри Эллисон в значительной степени рассматривается как главный руководитель, принимающий многие стратегические решения и делегирующий полномочия. «Сафра руководила Oracle, когда мы стали гигантом в сфере облачных технологий, что наглядно продемонстрировали наши недавние результаты, — сказал Эллисон. — Мы с Сафрой на посту заместителя председателя сможем продолжить наше 26-летнее партнёрство, помогая Oracle определять направление развития, рост и успех».

Oracle также объявила в понедельник, что Марк Хура (Mark Hura), нынешний исполнительный вице-президент по продажам Oracle в Северной Америке, назначен президентом по глобальным операциям. А Даг Керинг (Doug Kehring), нынешний исполнительный вице-президент по операциям, получил повышение в виде назначения на должность главного финансового директора.

Ресурс The Register сообщил, что эти решения были приняты спустя несколько недель после того, как в документах WARN была раскрыта информация об очередном раунде сокращений в Oracle, включающем увольнение более 350 сотрудников в Калифорнии и Вашингтоне. По данным источников, сокращение персонала по всему миру может исчисляться тысячами человек и, по некоторым оценкам, составляет до 12 тыс. специалистов. Компания предпочитает не афишировать масштабы увольнения, но они вызвали беспокойство внутри Oracle, особенно в командах разработчиков, отметил The Register. В частности, в подразделении MySQL было уволено около 70 человек, включая опытных специалистов.

Постоянный URL: http://servernews.ru/1129716

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus