Материалы по тегу: i

02.09.2025 [12:15], Сергей Карасёв

MSI выпустила серверы на платформе NVIDIA MGX с ускорителями RTX Pro 6000 Blackwell Server Edition

Компания MSI анонсировала серверы CG480-S5063 и CG290-S3063 на модульной архитектуре NVIDIA MGX. Новинки, ориентированные на задачи ИИ, оснащаются ускорителями NVIDIA RTX Pro 6000 Blackwell Server Edition с 96 Гбайт GDDR7.

Модель CG480-S5063 выполнена в форм-факторе 4U. Допускается установка двух процессоров Intel Xeon 6700E (Sierra Forest-SP) или Xeon 6500P/6700P (Granite Rapids-SP) с показателем TDP до 350 Вт. Доступны 32 слота для модулей оперативной памяти DDR5 (RDIMM 6400/5200 или MRDIMM 8000). Во фронтальной части могут быть размещены 20 накопителей E1.S с интерфейсом PCIe 5.0 x4 (NVMe). Кроме того, есть два внутренних коннектора М.2 2280/22110 (PCIe 5.0 x2; NVMe).

Система предлагает восемь слотов PCIe 5.0 x16 для карт FHFL двойной ширины и пять слотов PCIe 5.0 x16 для карт FHFL одинарной ширины. Таким образом, могут быть задействованы до восьми ИИ-ускорителей NVIDIA RTX Pro 6000 Blackwell Server Edition. В оснащение входят контроллер ASPEED AST2600, два сетевых порта 10GbE на основе Intel X710-AT2, выделенный сетевой порт управления 1GbE, интерфейсы USB 3.0/2.0 Type-A и Mini-DisplayPort. Питание обеспечивают четыре блока мощностью 3200 Вт с сертификатом 80 PLUS Titanium. Задействовано воздушное охлаждение с вентиляторами, допускающими горячую замену. Диапазон рабочих температур — от 0 до +35 °C.

 Источник изображений: MSI

Источник изображений: MSI

В свою очередь, сервер CG290-S3063 типоразмера 2U рассчитан на один процессор Xeon 6500P/6700P с TDP до 350 Вт. Предусмотрены 16 слотов для модулей DDR5 (RDIMM 6400/5200 или MRDIMM 8000). В тыльной части расположены отсеки для четырёх SFF-накопителей U.2 с интерфейсом PCIe 5.0 x4 (NVMe). Внутри есть два коннектора М.2 2280/22110 для SSD (PCIe 5.0 x2; NVMe).

Данная система предоставляет четыре слота PCIe 5.0 x16 для карт FHFL двойной ширины и три слота PCIe 5.0 x16 для карт FHFL одинарной ширины. Могут быть использованы до четырёх ускорителей NVIDIA RTX Pro 6000 Blackwell Server Edition. Прочие характеристики включают контроллер ASPEED AST2600, сетевой порт управления 1GbE, интерфейсы USB 3.0/2.0 Type-A и Mini-DisplayPort. Применены четыре блока питания мощностью 2400 Вт с сертификатом 80 PLUS Titanium и воздушное охлаждение.

Постоянный URL: http://servernews.ru/1128554
29.08.2025 [23:15], Владимир Мироненко

11,5 Пбайт в 2U: Novodisq представил блейд-сервер для ИИ и больших данных

Стартап Novodisq представил блейд-сервер формата 2U ёмкостью 11,5 Пбайт с функцией ускорения ИИ и др. задач. Гиперконвергентная кластерная система разработан для замены или дополнения традиционных решений NAS, SAN и публичных облачных сервисов. Новинка поддерживает платформы Ceph, MinIO и Nextcloud (также планируется поддержка DAOS), предлагая доступ по NFS, iSCSI, NVMe-oF и S3.

Сервер содержит до 20 модулей Novoblade с фронтальной загрузкой. В каждом из них имеется до четырёх встроенных E2 SSD Novoblade объёмом 144 Тбайт каждый, на базе TLC NAND с шиной PCIe 4.0 x4. Накопители поддерживают NVMe v2.1 и ZNS, обеспечивая последовательную производительность чтения/записи до 1000 Мбайт/с, а на случайных операциях — до 70/30 тыс. IOPS. Надёжность накопителей составляет до 24 PBW. Энергопотребление: от 5 до 10 Вт. Система Novoblade предназначена для «тёплого» и «холодного» хранения данных.

Модули Novoblade объединяют вычислительные возможности, ускорители и хранилища. Основной модулей являются гибридные SoC AMD Versal AI Edge Gen 2 (для ИИ-нагрузок) или Versal Prime Gen 2 (для традиционных вычислений) c FPGA, 96 Гбайт DDR5, 32 Гбайт eMMC, модулем TPM2 и двумя интерфейсам 10/25GbE с RoCE v2 RDMA и TSN. Энергопотребление не превышает 60 Вт. Есть функции шифрования накопителей, декодирования видео, ускорения ИИ-обработки, оркестрации контейнеров и т.д. Платформа специально разработана для задач с большими объёмами данных, таких как геномика, геопространственная визуализация, видеоархивация и периферийные ИИ-вычисления. Сервер может работать под управлением стандартных дистрибутивов Linux (RHEL и Ubuntu LTS) с поддержкой Docker, Podman, QEMU/KVM, Portainer и OpenShift.

 Источник изображений: Novodisq

Источник изображений: Novodisq

2U-шасси глубиной 1000 мм рассчитано на установку до двадцати модулей Novodisq и оснащено двумя (1+1) БП мощностью 2600 Вт каждый (48 В DC). Возможно горизонтальное масштабирование с использованием каналов 100–400GbE. В базовой конфигурации шасси включает четыре 200GbE-модуля с возможностью горячей замены, каждый из которых имеет SFP28-корзины, а также управляемый L2-коммутатор. Предусмотрен набор средств управления, включая BMC с веб-интерфейсом, CLI и поддержкой API Ansible, SNMP и Redfish. Novoblade поддерживает локальное и удалённое управление, может интегрироваться в существующий стек или предоставляться с помощью инструментов «инфраструктура как код» (Infrastructure-as-Code).

По словам разработчика, система Novoblade обеспечивает плотность размещения примерно в 10 раз выше, чем у сервера на основе жестких дисков, и снижает энергопотребление на 90–95 % без необходимости в механическом охлаждении. Novodisq утверждает, что общая стоимость владения системой «обычно на 70–90 % ниже, чем у традиционных облачных или корпоративных решений в течение 5–10 лет».

«Это обусловлено несколькими факторами: уменьшенным пространством в стойке, низким энергопотреблением, отсутствием платы за передачу данных, минимальным охлаждением, длительным сроком службы и значительным упрощением управления. В отличие от облака, ваши расходы в основном фиксированы, а значит, предсказуемы, и, в отличие от традиционных систем, Novodisq не требует дорогостоящих лицензий, внешних контроллеров или постоянных циклов обновления. Вы получаете высокую производительность, долгосрочную надёжность и более высокую экономичность с первого дня», — приводит Blocks & Files сообщение компании.

Для сравнения, узлы Dell PowerScale F710 и F910 на базе 144-Тбайт Solidigm SSD ёмкостью 122 Тбайт, 24 отсеками в 2U-шасси и коэффициентом сжатия данных 2:1 обеспечивают почти 6 Пбайт эффективной емкости, что почти вдвое меньше, чем у сервера Novoblade.

Постоянный URL: http://servernews.ru/1128445
29.08.2025 [17:19], Руслан Авдеев

Санкции США не особо помешали успехам Huawei в 5G-секторе, а полная «зачистка сетей» так и не удалась

Согласно отчёт Omdia, Huawei остаётся крупнейшим вендором RAN-инфраструктуры в трёх из пяти крупных регионов мира, попавших в поле зрения исследователей — несмотря на жесточайшие санкции США. Сегодня Huawei является сильной как никогда, в прошлом году её продажи были только на 4 % ниже, чем в 2020 году, т.е. до начала давления США на компанию и её партнёров, сообщает блог IEEE ComSoc.

В Азии и Океании, на Ближнем Востоке и в Африке, в Латинской Америке и Карибском бассейне компания остаётся ключевым вендором RAN. В Европе она занимает третье место, а в Северной Америке вовсе отсутствует, поскольку местному бизнесу запрещено иметь с ней дело. Но даже в Европе положение Huawei остаётся довольно прочным. Испанская Telefónica остаётся крупным клиентом Huawei в Бразилии и Германии, хотя ещё в 2020 году предполагалось «очистить сети» на этих рынках. Deutsche Telekom и Vodafone также активно пользуются решениями Huawei. Ericsson и Nokia отмечают, что Европа не может отказаться от продуктов Huawei и предупреждают инвесторов, что та «агрессивно» конкурирует в некоторых регионах.

На рынке телекоммуникационного оборудования, как заявляют в Ericsson, западные компании сталкиваются с растущим давлением со стороны Huawei и других китайских вендоров. В Ericsson констатируют, что попытки вытеснить Huawei из Европы под предлогом «высоких рисков» провалились, и теперь китайские конкуренты активно осваивают рынки не только в Европе, но и в Латинской Америке. Вместо того чтобы ввязываться в ценовую войну, Ericsson выбирает стратегию сохранения финансовой устойчивости, пусть и с потерей некоторых контрактов.

 Источник изображения: Dylan Carr/unsplash.com

Источник изображения: Dylan Carr/unsplash.com

С другой стороны, пока нет и признаков того, что европейские телеком-компании заменяют китайскими решениями финские и шведские продукты. Доля Nokia на рынке RAN практически не изменилась в I и II квартале, на компанию приходится 17,6 %. Впрочем, во II квартале Huawei, похоже, превзошла конкурента за счёт других вендоров и успехов на развивающихся рынках, где позиции компании традиционно сильны. Сыграли роль и некоторые другие факторы. Huawei по-прежнему высоко ценится клиентами за качество продукции. Компания была пионером в разработке 5G-решений, в том числе TDD и Massive MIMO, и первой вывела на рынок высокоэффективные GaN-усилители, опередив своих основных конкурентов.

 Источник изображения: Dell'Oro Group

Источник изображения: Dell'Oro Group

Санкции не повлияли на Huawei так, как рассчитывали эксперты. Хотя компанию отрезали от партнёрства с производителями самых передовых чипов, она смогла организовать выпуск компонентов для новейших смартфонов в Китае. Сетевое оборудование компании меньше зависит от передовых техпроцессов, поэтому продажи в этом секторе не пострадали вне рынков, где ввели жёсткие ограничения.

В США, отрезая Huawei от поставок решений для телеком-сетей, рассчитывали на успех американских компаний в области Open RAN, но чуда не произошло. Главный фаворит — Mavenir — из-за финансовых трудностей и невыполнения планов вынужденно провёл реструктуризацию, покинул часть рынков, провёл масштабные увольнения и отказался от активной разработки собственного аппаратного обеспечения, сосредоточившись на ПО. Parallel Wireless также разрабатывает ПО для Open RAN, SDR-решения, программный стек для 5G-SA, не зависящий от конкретного аппаратного обеспечения, и платформу Open RAN Aggregator для объединения оборудования разных вендоров.

В Dell’Oro Group предсказывают, что ежегодная выручка от многовендорных RAN-решений достигнет $3 млрд к 2029 году, т.е. менее 10 % от всего рынка RAN к тому моменту. Эксперты считают, что «высокая концентрация» рынка поставщиков оборудования Open RAN угрожает ключевому принципу архитектуры — разнообразию вендоров. Практически во всех регионах доминируют несколько крупных игроков (Huawei, Ericsson, Nokia, ZTE и Samsung), что противоречит самой концепции Open RAN. На рынке с такой высокой концентрацией и фактически «провалившихся» американских санкций RAN-технологии Huawei всё ещё очень востребованы.

Постоянный URL: http://servernews.ru/1128440
29.08.2025 [15:05], Руслан Авдеев

Microsoft, OpenAI и NVIDIA предупредили, что ИИ теперь может физически навредить энергосетям

Годами эксперты в области кибербезопасности уделяли внимание защите критической инфраструктуры в основном от цифровых атак с помощью самых разных систем, не позволявших создать угрозу электросетям. Однако новое исследование, проведённое специалистами из Microsoft, OpenAI и NVIDIA, показывает, что главной угрозой электросетям выступают отнюдь не хакеры, а ИИ.

Исследование «Стабилизация энергоснабжения для обучающих ИИ ЦОД» (Power Stabilization for AI Training Datacenters) выявило интересную тенденцию, связанную с быстрым внедрением ИИ в больших масштабах. В процессе эксплуатации ускорителей есть два основных этапа: вычислительный, когда они активно выполняют сложные математические операции, потребляя много энергии, и коммуникационный, когда они обмениваются данными между собой. Во время перехода от первого этапа ко второму происходит резкий спад энергопотребления, а от второго к первому — его стремительный рост.

В случае с гиперскейлерами скачки могут составлять десятки или сотни мегаватт, что негативно сказывается на состоянии электросетей в целом. Дело не просто в неэффективном использовании ресурсов — речь идёт об угрозе критически важной инфраструктуре. В докладе говорится, что колебания потребления могут совпасть с резонансными частотами ключевых компонентов энергосистемы, включая генераторы и оборудование ЛЭП, что потенциально приводит к дестабилизации сети, повреждению оборудования и масштабным авариям. Другими словами, активность ИИ представляет прямую физическую угрозу для аналоговой инфраструктуры электросетей.

 Источник изображения: American Public Power Association/unsplash.com

Источник изображения: American Public Power Association/unsplash.com

Для решения этой проблемы предлагаются три основных подхода. Во-первых, во время простоя на ускорителях можно решать второстепенные (или вообще бессмысленные, как делала Meta) задачи, держа оборудование на «холостом ходу» без полной остановки вычислений. Метод простой, но не самый лучший — общая энергоэффективность не растёт, снижение производительности при выполнении основной задачи вполне возможно. Во-вторых, можно непосредственно на уровне ИИ-ускорителей задавать минимальный порог энергопотребления, что тоже не способствует энергоэффективности.

Наконец, в-третьих, можно использовать аккумулирующие энергию системы: в моменты низкого потребления они заряжаются, а во время скачка нагрузки отдают накопленную в них энергию вместо того, чтобы резко увеличивать потребление от общей электросети. Подобные системы позволяют избежать скачков и сгладить рост и снижение потребляемой мощности. Так, Google уже давно размещает литий-ионных ячейки непосредственно в стойках. Для стоек GB300 NVL72 NVIDIA дополнила блоки питания буфером, который позволяет смягчить колебания потребления и снизить пиковую нагрузку на сеть до 30 %.

Энергосети давно являются частью критической инфраструктуры, но новые угрозы для них теперь находятся на стыке цифрового и реального мира. Получив неавторизованный доступ к крупному ИИ-кластеру, злоумышленники могут намеренно изменить паттерн энергопотребления так, чтобы навредить материальной инфраструктуре. Другими словами, злоумышленники могут повредить электростанцию или энергосети, даже не приближаясь к ним.

В докладе Microsoft, OpenAI и NVIDIA заинтересованные стороны прямо отмечают, что масштаб ИИ вырос до отметки, на которой цифровая активность ведёт к важным физическим последствиям. Специалистам по кибербезопасности придётся уделять время не только цифровой реальности, но и заняться защитой критически важной инфраструктуры и учитывать последствия разрабатываемых и внедряемых алгоритмов. Примером может служить инцидент, произошедший летом 2024 года в Вирджинии, когда миллисекундный сбой привёл к одномоментному отключению 60 дата-центров мощностью 1,5 ГВт на несколько часов.

Постоянный URL: http://servernews.ru/1128423
25.08.2025 [10:37], Сергей Карасёв

DFI представила первые индустриальные платы Mini-ITX на базе Intel Panther Lake-H

Компания DFI анонсировала материнские платы PTH171/PTH173: это, как утверждается, первые индустриальные изделия в форм-факторе Mini-ITX, выполненные на аппаратной платформе Intel Panther Lake-H.

Возможна установка процессоров с показателем TDP до 25 Вт. Решения Panther Lake-H получат до четырёх P-ядер, до 8 E-ядер и до четырёх маломощных LP-ядер. Флагманские модели таких чипов будут содержать до 12 графических ядер Xe3. Упомянут интегрированный нейропроцессорный модуль (NPU), предназначенный для ускорения операций, связанных с ИИ.

Новые материнские платы оснащены двумя слотами для модулей DDR5-6400/7200: максимально поддерживаемый объём ОЗУ составляет 128 Гбайт. Для подключения накопителей доступны два порта SATA-2. Кроме того, имеется слот для SSD типоразмера М.2 с интерфейсом PCIe (NVMe).

 Источник изображения: DFI

Источник изображения: DFI

Платы допускают подключение нескольких дисплеев через интерфейсы DisplayPort++, HDMI 2.0 и USB Type-C, а также дополнительный порт M2A-Display (eDP/LVDS/HDMI/DVI/D-Sub/DP). Предусмотрены разъёмы M.2 B Key (плюс слот для SIM-карты) для сотового модема 4G/5G и M.2 E Key для комбинированного адаптера Wi-Fi/Bluetooth. В оснащение входят до трёх сетевых контроллеров Intel с поддержкой 2.5GbE. Упомянут также слот расширения PCIe 5.0 x4.

В оснащение входят четыре порта USB 3.2 Gen2 Type-A, гнёзда RJ45 для сетевых кабелей и порт USB Type-C (DP/USB3 Gen2/PD 15 Вт). Через разъёмы на платах могут быть задействованы до пяти портов USB 2.0, последовательные порты и пр.

Постоянный URL: http://servernews.ru/1128164
22.08.2025 [17:23], Руслан Авдеев

Google: медианный промпт Gemini потребляет 0,24 Вт·ч энергии и 0,26 мл воды

Компания Google опубликовала документ, в котором описывается методология измерения потребления энергии и воды, а также выбросов и воздействия на окружающую среду ИИ Gemini. Как утверждают в Google, «медианное» потребление энергии на одно текстовое сообщение в Gemini Apps составляет 0,24 Вт·ч, выбросы составляют 0,03 г эквивалента углекислого газа (CO2e), а воды расходуется 0,26 мл.

В компании подчёркивают, что показатели намного ниже в сравнении со многими публичными оценками, а на каждый запрос тратится электричества столько же, сколько при просмотре телевизора в течение девяти секунд. Google на основе данных о сокращении выбросов в ЦОД и декарбонизации энергопоставок полагает, что за последние 12 месяцев энергопотребление и общий углеродный след сократились в 33 и 44 раза соответственно. В компании надеются, что исследование внесёт вклад в усилия по разработке эффективного ИИ для общего блага.

Методологии расчёта энергопотребления учитывает энергию, потребляемую активными ИИ-ускорителями (TPU), CPU, RAM, а также затраты простаивающих машин и общие расходы ЦОД. При этом из расчёта исключаются затраты на передачу данных по внешней сети, энергия устройств конечных пользователей, расходы на обучение моделей и хранение данных.

 Источник изображений: Google

Источник изображений: Google

Впрочем, по мнению некоторых экспертов, данные вводят в заблуждение, поскольку часть информации не учитывается. Так, не принимается в расчёт «косвенное» использование воды, поскольку считается только вода, которую ЦОД применяют для охлаждения, хотя значительная часть водопотребления приходится на генерирующие мощности, а не на их потребителей. Кроме того, при учёте углеродных выбросов должны приниматься во внимание не купленные «зелёные сертификаты», а реальное загрязняющее действие ЦОД в конкретной локации с учётом использования «чистой» и «обычной» энергии в местной электросети.

OpenAI также недавно оказалась в центре внимания экспертов и общественности, поскольку появилась информация, что её новейшая модель GPT-5 потребляет более 18 Вт·ч электроэнергии, до 40 Вт·ч на ответ средней длины. Сам глава компании Сэм Альтман (Sam Altman) объявил, что в среднем на выполнение запроса тратится около 0,34 Вт∙ч и около 0,32 мл воды. Это несколько больше, чем заявленные показатели Google Gemini, однако, согласно расчётам исследователей, эти цифры, скорее всего, актуальны для GPT-4o.

Постоянный URL: http://servernews.ru/1128088
20.08.2025 [13:24], Руслан Авдеев

Vantage построит за $25 млрд 1,4-ГВт кампус ИИ ЦОД неподалёку от первого дата-центра Crusoe Stargate

Vantage Data Centers занялась расширением ЦОД в Техасе. Новый кампус Frontier площадью более 485 га и мощностью 1,4 ГВт появится в округе Шакелфорд (Shackelford, Техас), сообщает Datacenter Dynamics. Кампус станет крупнейшим в глобальном портфолио компании, и самым дорогим — Vantage потратит в общей сложности более $25 млрд. На территории разместятся 10 объектов общей площадью около 345 тыс. м2. Строительство уже началось, первое здание должно быть готово в I полугодии 2026 года. ЦОД достанется Oracle и OpenAI в рамках проекта Stargate.

Кампус Frontier получит поддержку 250-кВт стоек. В кампусе будет применяться СЖО с замкнутым циклом, требующая минимального расхода воды. Компания намерена получить для объекта сертификат LEED (Leadership in Energy and Environmental Design). Телекоммуникационная инфраструктура здания получит три операторских точки подключения (Meet-Me-Room, MMR) и один ввод.

По словам Vantage, Техас стал критически важным рынком для поставщиков ИИ-решений. В частности, запуск кампуса Frontier знаменует переломный момент для Vantage. В компании уверены, что инвестиции в Техас станут драйвером экономического роста региона. По словам губернатора штата, инвестиции Vantage в строительство нового кампуса помогут создать тысячи хорошо оплачиваемых рабочих мест для местных жителей и обеспечить доход местной и региональной экономике.

 Источник изображения: Vivian Arcidiacono/unspalsh.com

Источник изображения: Vivian Arcidiacono/unspalsh.com

Новости о том, что Vantage намерена строить крупный кампус в Техасе, появились в июле 2025 года. Компания подтвердила данные, но не раскрыла подробностей. Сообщалось, что строительство планировалось на пересечении трасс 604 и 351. Frontier находится вблизи Абилина (Abilene), где Crusoe строит первый крупный кампус для Oracle и OpenAI в рамках проекта Stargate.

Vantage Data Centers, принадлежащая DigitalBridge, управляет или строит дата-центры по всей территории США, в том числе в Огайо, Джорджии, Техасе, Калифорнии, Вирджинии, Аризоне, Индиане, Неваде, Висконсине и Вашингтоне.

Постоянный URL: http://servernews.ru/1127937
18.08.2025 [14:09], Владимир Мироненко

OpenAI намерена потратить триллионы долларов на ИИ-инфраструктуру, но для начала их надо где-то найти

Генеральный директор OpenAI Сэм Альтман (Sam Altman) рассчитывает, что со временем компания потратит на создание ИИ-инфраструктуры триллионы долларов — однако нужно найти способ привлечь такие средства для реализации его планов, пишет Bloomberg.

«Следует ожидать, что OpenAI потратит триллионы долларов на строительство ЦОД в “недалёком будущем”», — заявил Альтман журналистам в ходе брифинга. Он добавил, что «кучка экономистов» назовёт это безрассудством, на что будет ответ: «Знаете что? Позвольте нам заниматься своим делом». По словам Альтмана, стартап разрабатывает новый способ финансирования. «Мы можем разработать очень интересный новый вид инструмента для финансов и вычислений, который мир ещё не изобрел», — сказал он. Ранее было объявлено, что в течение четырёх лет на инфраструктурный проект Stargate будет израсходовано $500 млрд, но Альтман предполагает выйти далеко за рамки этой суммы.

 Источник изображения: Levart_Photographer/unsplash.com

Источник изображения: Levart_Photographer/unsplash.com

Альтман также сообщил, что видит параллели между нынешним инвестиционным ажиотажем в области ИИ и пузырём доткомов в конце 1990-х годов. По его словам, в обоих случаях «умные люди» были «чрезмерно воодушевлены» новой технологией. Но в каждом случае, по его мнению, эта технология была «реальной» и в конечном итоге должна была оказать долгосрочное влияние на деловой мир и общество.

Глава OpenAI заявил, что считает развитие ИИ-технологий самым важным событием за очень долгое время, отметив, что «общество в целом» вряд ли пожалеет об огромных инвестициях в ИИ, но также признал, что считает некоторые текущие оценки стартапов «безумными» и «иррациональными»: «Кто-то на этом обожжётся». Несмотря на то, что OpenAI «потратит много денег», в конечном итоге это окупится и принесёт «огромную прибыль», пообещал Сэм Альтман: «Для нас очень разумно продолжать инвестировать прямо сейчас».

Планы OpenAI также включают первичное публичное размещение акций в будущем, но Альтман отказался назвать конкретные сроки проведения IPO. «Я думаю, что когда-нибудь нам, вероятно, придётся выйти на биржу», — сказал гендиректор, отметив, что он не очень «хорошо подходит» для должности гендиректора публичной компании. В настоящее время OpenAI завершает сложную корпоративную реструктуризацию, которая продолжается уже несколько месяцев, отмечает Bloomberg.

Постоянный URL: http://servernews.ru/1127803
14.08.2025 [17:29], Руслан Авдеев

Умнее, но прожорливее: GPT-5 потребляет до 20 раз больше энергии, чем предыдущие модели

Недавно представленной модели OpenAI GPT-5 в сравнении с ChatGPT образца середины 2023 года для обработки идентичного запроса потребуется до 20 раз больше энергии, сообщает The Guardian. Официальную информацию об энергопотреблении OpenAI, как и большинство её конкурентов, не публикует. В июне 2025 года глава компании Сэм Альтман (Sam Altman) сообщил, что речь идёт о 0,34 Вт∙ч и 0,00032176 л на запрос, но о какой именно модели идёт речь, не сообщалось. Документальные подтверждения этих данных тоже отсутствуют.

По словам представителя Университета штата Иллинойс (University of Illinois), GPT-5 будет потреблять намного больше энергии в сравнении с моделями-предшественницами как при обучении, так и при инференсе. Более того, в день премьеры GPT-5 исследователи из Университета Род-Айленда (University of Rhode Island) выяснили, что модель может потреблять до 40 Вт∙ч для генерации ответа средней длины из приблизительно 1 тыс. токенов. Для сравнения, в 2023 году на обработку одного запроса уходило порядка 2 Вт∙ч.

Сейчас среднее потребление GPT-5 составляет чуть более 18 Вт∙ч на запрос, что выше, чем у любых других сравнивавшихся учёными моделей, за исключением апрельской версии «рассуждающей» o3 и DeepSeek R1. Предыдущая модель GPT-4o потребляет значительно меньше. 18 Вт∙ч эквивалентны 18 минутам работы лампочки накаливания. С учётом того, что ChatGPT обрабатывает около 2,5 млрд запросов ежедневно, за сутки тратится энергии, достаточной для снабжения 1,5 млн домохозяйств в США.

 Источник изображения: Dean Brierley / Unsplash

Источник изображения: Dean Brierley / Unsplash

В целом учёные не удивлены, поскольку GPT-5 в разы производительнее своих предшественниц. Летом 2025 года ИИ-стартап Mistral опубликовал данные, в которых выявлена «сильная корреляция» между масштабом модели и её энергопотреблением. По её данным, GPT-5 использует на порядок больше ресурсов, чем GPT-3. При этом многие предполагают, что даже GPT-4 в 10 раз больше GPT-3.

Впрочем, есть и дополнительные факторы, влияющие на потребление ресурсов. Так, GPT-5 использует более эффективное оборудование и новую, более экономичную экспертную архитектуру с оптимизацией расхода ресурсов на ответы, что в совокупности должно снизить энергопотребление. С другой стороны, в случае с GPT-5 речь идёт о «рассуждающей» модели, способной работать с видео и изображениями, поэтому реальное потребление ресурсов, вероятно, будет очень высоким. Особенно в случае длительных рассуждений.

 Источник изображения: Tim King / Unsplash

Источник изображения: Tim King / Unsplash

Чтобы посчитать энергопотребление, группа из Университета Род-Айленда умножила среднее время, необходимое модели для ответа на запрос на среднюю мощность, потребляемую моделью в ходе работы. Важно отметить, что это только примерные оценки, поскольку достоверную информацию об использовании моделями конкретных чипов и распределении запросов найти очень трудно. Озвученная Альтманом цифра в 0,34 Вт∙ч практически совпадает с данными, рассчитанными для GPT-4o.

Учёные подчёркивают необходимость большей прозрачности со стороны ИИ-бизнесов по мере выпуска всё более производительных моделей. В университете считают, что OpenAI и её конкуренты должны публично раскрыть информацию о воздействии GPT-5 на окружающую среду. Ещё в 2023 году сообщалось, что на обучение модели уровня GPT-3 требуется около 700 тыс. л воды, а на диалог из 20-50 вопросов в ChatGPT уходило около 500 мл. В 2024 году сообщалось, что на генерацию ста слов у GPT-4 уходит до трёх бутылок воды.

Постоянный URL: http://servernews.ru/1127619
14.08.2025 [13:57], Руслан Авдеев

Windows 365 Reserve предложит на время облачный ПК на случай проблем с физическим

Пользователи Windows 11 смогут пользоваться виртуальными копиями своих компьютеров в облаке в случае поломки ПК. Компаниям предлагается доступ к виртуальным машинам в облаке Azure, если откажет железо или программное обеспечение, сообщает The Register.

По словам Microsoft, в условиях постоянного подключения к Сети сбой даже одного устройства может негативно сказаться на работе всей организации, что снизит производительность, создаст дополнительную нагрузку на IT-отделы и др. Как заявляют в компании, если возможные сбои умножить на тысячи сотрудников, последствия станут «колоссальными».

Для тех, кто хочет сохранить работоспособность IT-инфраструктуры в любых условиях, предлагается сервис Windows 365 Reserve. Он позиционируется как современное, безопасное и масштабируемое решение, помогающее сотрудникам сохранять продуктивность и быть на связи даже в непредвиденных обстоятельствах. Сервис предназначен для бизнес-пользователей, при этом подписка Reserve не связана с основным продуктом Windows 365.

 Источник изображения: Jonathan Borba/unspalsh.com

Источник изображения: Jonathan Borba/unspalsh.com

Клиенты могут получить доступ к «временному, безопасному и выделенному облачному ПК», пользоваться которым можно будет до 10 дней, если основная машина выйдет из строя. Виртуальные машины размещаются на облачной платформе Microsoft и управляются через Microsoft Intune, так что их можно предварительно настроить для быстрого развёртывания. Проблема в том, что для использования такого облачного ПК всё равно потребуется ещё одно устройство, имеющее хотя бы рабочий веб-браузер — желательно… ещё один ПК.

Ещё одно препятствие для пользователей Windows 365 Reserve — проблема «масштабирования» в случаях, когда неудачное обновление, атака вируса или другая масштабная проблема одновременно оставит без возможности использовать традиционные ПК сразу несколько пользователей. В Microsoft признают, что Windows 365 Reserve ограничен ёмкостью облака Azure и, конечно, требует сетевого подключения для использования виртуального ПК.

Пока желающие протестировать Windows 365 Reserve могут подать заявку для доступа к закрытой бета-версии. Участвовать могут только избранные: клиенты Microsoft, MVP-эксперты или партнёры компании, у которых есть лицензии Windows E3, Intune и Azure Active Directory P1 (AADP1).

Участники бета-теста Windows 365 Reserve должны выполнить набор тестовых сценариев — как для администраторов, так и для конечных пользователей, предоставив обратную связь о своём опыте использования нового сервиса. Соискателям с одобренными заявками будет предоставлен бесплатный доступ к платформе на срок до 12 недель.

Постоянный URL: http://servernews.ru/1127628

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;