Материалы по тегу: i

23.03.2026 [12:04], Сергей Карасёв

Мини-ПК ASUS ExpertCenter PN55 получил чип AMD Ryzen AI 400 с ИИ-производительностью до 91 TOPS

Компания ASUS анонсировала компьютер небольшого форм-фактора ExpertCenter PN55, предназначенный для использования в бизнес-сфере. Устройство, выполненное на аппаратной платформе AMD, подходит для работы с ИИ-приложениями. Новинка будет предлагаться в виде barebone-систем и в полностью укомплектованных конфигурациях.

Применён процессор Ryzen AI 400 поколения Gorgon Point. В частности, максимальная конфигурация включает чип Ryzen AI 9 HX 470, который объединяет 12 ядер (24 потока инструкций) с базовой частотой 2 ГГц и максимальной частотой 5,2 ГГц. В состав изделия входят графический блок Radeon 890M с частотой 3,1 ГГц и нейропроцессорный узел (NPU) с производительностью 60 TOPS. Общее ИИ-быстродействие (с учётом ядер CPU и GPU) достигает 91 TOPS.

 Источник изображений: ASUS

Источник изображений: ASUS

Компьютер оснащён двумя слотами SO-DIMM для модулей оперативной памяти DDR5-5600 суммарным объёмом до 96 Гбайт. Могут быть установлены два SSD типоразмера M.2 2280 с интерфейсом PCIe 4.0 x4 (NVMe) вместимостью до 2 Тбайт каждый. В оснащение входят двухпортовый сетевой адаптер 2.5GbE (RTL8125BG), звуковой кодек Realtek ALC8233, контроллер беспроводной связи MediaTek MT7922 (Wi-Fi 6E и Bluetooth 5.4) или MediaTek MT7925 (Wi-Fi 7 и Bluetooth 5.4).

На фронтальную панель выведены порт USB 3.1 Type-C (10 Гбит/с) и два порта USB 3.1 Type-A (10 Гбит/с), а также комбинированное аудиогнездо на 3,5 мм. В тыльной части сосредоточены порты USB4 (40 Гбит/с; поддержка DisplayPort 2.1 и PD с мощностью 100 Вт), USB 3.1 Type-A, USB 2.0, HDMI 2.1, два интерфейса DisplayPort 1.4, два гнезда RJ45 для сетевых кабелей. Питание подаётся через DC-коннектор от внешнего блока мощностью 120 Вт.

Компьютер имеет размеры 130 × 130 × 34 мм и весит 530 г. Говорится о совместимости с Windows 11 и Windows 11 IoT Enterprise. Допускается монтаж посредством крепления VESA — например, на заднюю стенку монитора.

Постоянный URL: http://servernews.ru/1138722
23.03.2026 [12:00], Сергей Карасёв

ASRock Industrial выпустила компактную рабочую станцию AI Box-A395 на основе AMD Ryzen AI Max

Компания ASRock Industrial анонсировала компактную рабочую станцию AI Box-A395, предназначенную для работы с большими языковыми моделями (LLM) и различными ИИ-приложениями. Утверждается, что новинка подходит, в частности, для локального инференса.

В основу устройства положена аппаратная платформа AMD. Применен процессор Ryzen AI Max+ 395 поколения Strix Halo, который содержит 16 вычислительных ядер с возможностью обработки до 32 потоков инструкций. Базовая тактовая частота составляет 3 ГГц, максимальная частота — 5,1 ГГц. В состав чипа входят графический блок Radeon 8060S с частотой до 2,9 ГГц и нейропроцессорный узел XDNA 2 NPU с производительностью 50 TOPS. Суммарное ИИ-быстродействие (с учётом ядер CPU и GPU) достигает 126 TOPS.

 Источник изображения: ASRock Industrial

Источник изображения: ASRock Industrial

Система AI Box-A395 выполнена в корпусе с размерами 200 × 100 × 232 мм, а масса составляет 2,8 кг. Устройство может нести на борту до 128 Гбайт оперативной памяти LPDDR5X-8000, а также SSD формата M.2 2242/2280 и M.2 2280 с интерфейсом PCIe 4.0 x4 (возможно формирование массива RAID 0/1). В оснащение входят сетевые адаптеры 10GbE (Marvell AQC113) и 2.5GbE (Realtek RTL8125BG), звуковой кодек Realtek ALC897, а также комбинированный контроллер Wi-Fi 7 802.11be / Bluetooth 5.4 в виде модуля М.2.

Предусмотрены два интерфейса HDMI 2.1 (7680 × 4320 пикселей, 60 Гц), два гнезда RJ45 для сетевых кабелей, два порта USB4 (40 Гбит/с, DP 2.1), один разъём USB 3.1 Type-C (10 Гбит/с, DP 2.1), два порта USB 3.1 Type-A (10 Гбит/с), два порта USB 2.0, а также стандартные аудиогнёзда на 3,5 мм. Имеется модуль TPM 2.0 для обеспечения безопасности. Заявлена совместимость с Windows 11. Диапазон рабочих температур простирается от 0 до +40 °C. Рабочая станция оснащена ручкой в верхней части корпуса для переноски.

Постоянный URL: http://servernews.ru/1138720
22.03.2026 [19:26], Владимир Мироненко

Nokia уже готовится к развитию Wi-Fi 9

Компания Nokia изложила свое видение будущего стандарта беспроводной связи Wi-Fi 9, разработанного для «поддержки цифровых впечатлений в реальном времени, с эффектом полного погружения и управлением с помощью ИИ». Компания планирует с помощью отраслевых дискуссий внести ясность по поводу того, как должны развиваться беспроводные сети для поддержки все более требовательных приложений.

Предполагается, что Wi-Fi 9 будет развиваться вместе с будущими сетями 6G в рамках взаимодополняющей беспроводной экосистемы, с оптимизацией каждой из технологий для различных сред и сценариев использования.

Если ранее развитие Wi-Fi было направлено на увеличение пиковых скоростей и эффективности, то сейчас беспроводные сети должны развиваться, выходя за рамки просто «достаточно быстрых». Следующее поколение Wi-Fi должно поддерживать приложения, где быстродействие, надёжность и предсказуемость так же важны, как и скорость, считает компания.

 Источник изображения: Lucrezia Carnelos / Unsplash

Источник изображения: Lucrezia Carnelos / Unsplash

Wi-Fi 9 будет ориентирован на реальную производительность, а не только на теоретические пиковые скорости. Это включает:

  • Многогигабитные скорости, чтобы пользователи могли на своих смартфонах, XR-устройствах и ноутбуках в полной мере использовать широкополосные оптоволоконные соединения следующего поколения.
  • Предсказуемое и надёжное соединение, особенно для новых сценариев использования, таких как иммерсивные медиа, робототехника и тактильное взаимодействие, где задержки более 10 мс и потеря пакетов недопустимы.
  • Высокую производительность в плотных средах с одновременным подключением десятков устройств, работающих в режиме реального времени и с высокой пропускной способностью.
  • Повышенную энергоэффективность, гарантирующую, что рост производительности достигается не за счёт увеличения энергопотребления мобильных устройств и точек доступа.

Благодаря этому стандарт Wi-Fi 9 обеспечит поддержку нового поколения цифровых сервисов, зависящих от мгновенного и бесперебойного подключения. Так, развитие ИИ-технологий начинает менять то, как работают и взаимодействуют устройства. Автономные системы, подключённые роботы и интеллектуальные устройства будут полагаться на беспроводные сети для обмена данными и принятия решений в режиме реального времени.

Иммерсивные технологии, такие как дополненная и виртуальная реальность, массовое использование которых не за горами, тоже полагаются на чрезвычайно быстрое взаимодействие и стабильно высокую производительность сетей, что в совокупности обусловит рост интернет-трафика. В связи расширением доступности оптоволоконной широкополосной связи следующего поколения со скоростью 10 Гбит/с и даже 25 Гбит/с, пользователи ожидают такие же скорости и тот же уровень быстродействия на своих устройствах с Wi-Fi.

 Источник изображения: XR Expo / Unsplash

Источник изображения: XR Expo / Unsplash

Влияние Wi-Fi 9 будет ощущаться в цифровых сервисах, на которые люди полагаются каждый день, отметила компания. Например, новые возможности потребуются для проведения виртуального собрания, где коллеги появляются в виде реалистичных аватаров в общем рабочем пространстве, или для совместной работы в трёхмерной среде в реальном времени, где каждый жест и взаимодействие происходят мгновенно. AR/VR-инструменты следующего поколения, облачные игровые платформы и 3D-среды реального времени зависят от способности беспроводных сетей обеспечивать высокую скорость (100+ Мбит/с на устройство), стабильно низкую задержку (менее 5 мс) и стабильную производительность. Всё это должен обеспечить Wi-Fi 9, считает Nokia.

Другие новые приложения будут предъявлять дополнительные требования к беспроводным сетям. Например, тактильные и осязательные технологии, позволяющие пользователям получать физическую обратную связь при взаимодействии с цифровой системой, требуют от сети мгновенной и надёжной передачи обратной связи в любой момент как на устройства, так и с устройств, даже при полной загрузке сети. В этом случае качество и быстрота отклика беспроводного соединения не менее важны, чем сама скорость.

 Источник изображения: Sara Kurig / Unsplash

Источник изображения: Sara Kurig / Unsplash

«Изложив это видение сейчас, мы стремимся помочь определить следующий этап инноваций в области беспроводных технологий, обеспечив тем самым, чтобы будущие беспроводные сети могли поддерживать захватывающие, интеллектуальные и работающие в режиме реального времени возможности, которые определят следующую эру цифровой связи», — отметила компания.

Nokia также призвала к скорейшему согласованию в отрасли чётких целей по производительности и требований, ориентированных на сценарии использования, чтобы следующее поколение Wi-Fi развивалось вместе с ВОЛС и сетями 6G. «Тесная координация между беспроводными и проводными технологиями будет иметь важное значение для обеспечения стабильной и предсказуемой производительности в различных средах», — подчеркнула компания.

Постоянный URL: http://servernews.ru/1138711
22.03.2026 [13:10], Сергей Карасёв

Почти втрое быстрее NVIDIA H20: Huawei представила ИИ-ускоритель Atlas 350 для инференса

Компания Huawei Technologies, по сообщению газеты South China Morning Post (SCMP), представила ускоритель Atlas 350, предназначенный для ИИ-инференса. Утверждается, что в таких задачах новинка обеспечивает прирост производительности до 2,8 раза по сравнению с NVIDIA H20.

Известно, что решение Atlas 350 выполнено на чипе Ascend 950PR. Заявленная ИИ-производительность в формате FP4 достигает 1,56 Пфлопс. Показатели быстродействия в других режимах пока не раскрываются, но ранее говорилось об 1 Пфлопс в FP8. Как отмечается, Huawei использует собственную память HBM. Её объём в зависимости от конфигурации ускорителя составляет до 128 Гбайт, пропускная способность — 1,6 Тбайт/с. Прочие технические характеристики не приводятся.

Ускоритель Atlas 350 оптимизирован для предварительного заполнения (Prefill) в ходе инференса — это наиболее ресурсоёмкая фаза работы больших языковых моделей (LLM) в рамках процесса генерации контента: на данном этапе производится обработка входного запроса пользователя. Скорость выполнения предварительного заполнения напрямую влияет на показатель TTFT (Time To First Token), то есть, на время, прошедшее с момента ввода запроса до начала ответа. Таким образом, решение Atlas 350 подходит для ИИ-приложений реального времени и агентных систем.

 Источник изображения: Huawei

Источник изображения: Huawei

Huawei также заявила о планах масштабного обновления своих СХД, включая решения OceanStor Dorado и Pacific 9926 класса All-Flash. Кроме того, компания готовит платформу FusionCube A1000, которая поможет малым и средним предприятиям быстро разворачивать ИИ-системы.

«Если первая половина эпохи ИИ была сосредоточена на вычислительной мощности, то вторая половина будет определяться данными. В 2026 году Huawei продолжит модернизацию своих СХД и будет активно участвовать в крупных национальных проектах по формированию соответствующей инфраструктуры», — говорит Юань Юань (Yuan Yuan), президент подразделения по хранению данных Huawei.

Постоянный URL: http://servernews.ru/1138699
19.03.2026 [13:36], Руслан Авдеев

GMI Cloud развернёт в Японии суверенную ИИ-инфраструктуру стоимостью $12 млрд

Американская GMI Cloud запускает в Японии суверенный проект по созданию ИИ-инфраструктуры стоимостью $12 млрд. Совместно с Wistron в Кагосиме (Kagoshima) компания планирует запустить ИИ-фабрику для задач «физического ИИ» (робототехника, автономный транспорт, производство), сообщает Datacenter Dynamics.

ЦОД в приморском городе на острове Кюсю (Kyushu) будет находиться на территории объекта Kai Shin Digital Infrastructure. Она, в свою очередь, представляет собой совместное предприятие CDIB Capital и Shin-Etsu Science Industry. Впервые Kai Shin Digital Infrastructure объявила о планах строительства ЦОД в Кагосиме в октябре 2025 года. Первоначальная мощность объекта составит 350 МВт с дальнейшим масштабированием до 1 ГВт. Строительство начнётся в конце 2026 года.

Известно, что компания является партнёром NVIDIA, но пока подробности об ИИ-оборудовании для площадки почти отсутствуют. Есть данные, что проект будет обеспечивать доступ к ИИ-вычислениям, при этом он должен соответствовать требованиям к суверенитету, определённым для японских организаций. На сайте GMI сообщается, что платформа будет использовать ускорители Vera Rubin.

 Источник изображения: GMI Cloud

Источник изображения: GMI Cloud

Партнёрство с Wistron тоже началось не вчера. Так, в декабре 2025 года сообщалось, что Wistron потратит $0,9 млрд на расширение производства сетевого и ИИ-оборудования и инвестиции в облако GMI. По данным последней, новый дата-центр будет «зелёным и устойчивым», хотя как именно это будет достигнуто, тоже не сообщается. Судя по одному из рендеров, на крыше зданий будут расположены солнечные панели.

GMI рассчитывает использовать для своей суверенной инфраструктурной ИИ-платформы VAST AI от VAST Data, которая позиционируется как первая платформа, созданная с нуля для управления «жизненным циклом» ИИ. Она является единой основой для систем хранения данных, управления базами данных и вычислительной средой. Это избавляет пользователей от необходимости связывать десятки разрозненных инструментов для обучения, инференса, обеспечения работы ИИ-агентов и всех промежуточных этапов.

 Источник изображения: GMI Cloud

Источник изображения: GMI Cloud

В конце 2025 года GMI представила планы строительства ЦОД на Тайване мощностью 16 МВт за $500 млн. Он должен вмещать около 7 тыс. ИИ-ускорителей NVIDIA GB300 в 96 стойках. Также GMI управляет дата-центрами в США, на Тайване, в Сингапуре, Таиланде и Японии. В данное время компания стремится построить дата-центр мощностью 50 МВт в США.

GMI основана в 2023 году и имеет штаб-квартиру в Калифорнии. Первоначально компания работала как оператор ЦОД, обеспечивавший майнинг биткоинов, но с тех пор она изменила профиль деятельности, занявшись реализацией ИИ-проектов. В ноябре 2024 года GMI привлекла $82 млн в рамках раунда финансирования серии А. Согласно официальным данным, на сегодня у неё есть мощности в пяти дата-центрах.

Постоянный URL: http://servernews.ru/1138551
15.03.2026 [11:46], Руслан Авдеев

Microsoft ведёт переговоры об аренде мощностей в техасском кампусе Stargate на сотни мегаватт

По данным The Information, компания Microsoft ведёт переговоры об аренде сотен мегаватт мощностей дата-центров во флагманском кампусе проекта Stargate в Абилине (Техас). Некоторые резиденты площадки готовы отказаться от планов расширения бизнеса, поэтому предложение IT-гиганта может оказаться весьма кстати.

Кампус строит компания Crusoe на территории Clean Campus, принадлежащей Lancium. Именно здесь располагается флагманская площадка Stargate — первые ЦОД совместного предприятия стоимостью $500 млрд, представленного в 2025 году. Дата-центры уже работают и управляются Oracle в интересах OpenAI. Два здания ввели в эксплуатацию в сентябре 2025 года, ещё шесть должны заработать в 2026-м. Совокупная мощность кампуса должна достичь 1,2 ГВт.

Ранее предполагалось, что Oracle и OpenAI расширят площадку до 2 ГВт, однако от этих планов решили отказаться, в том числе из-за финансовых ограничений. Кроме того, OpenAI регулярно пересматривает прогнозы спроса и собственное видение развития проекта Stargate. Ожидается, что дополнительные мощности компании получат на других площадках.

Полноценное электроснабжение кампуса в Абилине, по всей видимости, станет доступно лишь примерно через год. К тому времени OpenAI рассчитывает использовать ускорители NVIDIA Vera Rubin вместо Blackwell, которые планируется установить в Абилине, поэтому планы по развитию площадки были скорректированы. По информации The Information, переговоры Microsoft об аренде мощностей находятся на продвинутой стадии.

 Источник изображения: Crusoe

Источник изображения: Crusoe

Microsoft в целом быстро наращивает инфраструктуру дата-центров. В последнем финансовом отчёте компания сообщила, что только за последний квартал ввела в эксплуатацию около 1 ГВт мощностей. Всего за 2025 год инфраструктура выросла примерно на 2 ГВт. Капитальные затраты за квартал также достигли рекордных $37,5 млрд, хотя вряд ли компания продолжит увеличивать инвестиции такими же темпами.

Помимо Microsoft, переговоры о размещении в кампусе Stargate, по данным источников, ведёт и Meta. Потенциальные соглашения могут предусматривать использование в общей сложности около 600 МВт с поэтапным вводом мощностей. По слухам, NVIDIA уже выплатила Crusoe депозит в размере $150 млн, чтобы зарезервировать мощности после того, как Oracle отказалась от первоначальных планов расширения. Компания рассчитывает, что в дата-центрах кампуса будет использоваться именно её оборудование, а не решения конкурентов.

Постоянный URL: http://servernews.ru/1138331
10.03.2026 [16:25], Руслан Авдеев

CNBC: Oracle строит «вчерашние» дата-центры за счёт будущих долгов

Поколения ИИ-ускорителей обновляются значительно быстрее, чем строятся новые ЦОД. Эта тенденция представляет угрозу как для рынка ИИ-решений в целом, так и для экспансии Oracle, в значительной степени финансируемой за счёт долговых средств, сообщает CNBC.

По последним данным, OpenAI больше не планирует расширять партнёрство с Oracle в Абилине (Abilene, Техас), где расположен флагманский ЦОД проекта Stargate. Причина в том, что ИИ-компания нуждается в кластерах с новейшими поколениями ускорителей NVIDIA, а возможности Oracle поставить их OpenAI — под вопросом. В воскресенье Oracle назвала новости о своей деятельности «ложными и неправильными», но в посте компании говорилось лишь о существующих проектах, а планов масштабирования объявление не касалось.

Площадка в Абилине будет использовать ускорители NVIDIA Blackwell, но энергия для них начнёт поступать лишь через год. К тому времени OpenAI рассчитывает получить «расширенный» доступ к чипам NVIDIA нового поколения в более крупных кластерах, в других местах. В своё время Oracle получила землю, заказала оборудование и потратила миллиарды долларов на строительство и персонал в расчёте на будущий рост. Теперь в компании отказываются подробно комментировать эту информацию.

Отказ от дальнейшего расширения был бы вполне логичным шагом для OpenAI, которой не нужны устаревшие чипы. Раньше NVIDIA представляла новое поколение ИИ-ускорителей каждые два года, но теперь её глава Дженсен Хуанг (Jensen Huang) объявил, что компания перешла на ежегодный цикл обновления, и каждое новое поколение значительно превосходит предыдущее по производительности. Например, представленные в январе 2026 года ускорители Vera Rubin впятеро производительнее Blackwell при инференсе.

 Источник изображения: Amy Hirschi/unsplash.com

Источник изображения: Amy Hirschi/unsplash.com

Для компаний, создающих передовые ИИ-модели, малейшее отставание в производительности оборудования может означать серьёзное отставание в бенчмарках и рейтингах. При этом рейтинги внимательно отслеживаются специалистами и бизнесом и сильно влияют на уровень использования ИИ-продуктов, выручку и капитализацию. Тем временем у инфраструктурных компаний на получение участка, подключение электроэнергии, строительство и ввод в эксплуатацию дата-центра уходит минимум год-два, а клиентам требуется новейшее оборудование, которое теперь обновляется каждый год.

Дополнительной проблемой Oracle является то, что это единственный гиперскейлер, строящий новую инфраструктуру преимущественно за счёт заёмных средств: долги достигли $100 млрд и продолжают расти. Напротив, Google, AWS и Microsoft пользуются полноводными потоками денег, получаемых от других направлений своей деятельности, приносящих значительную выручку. Сообщается, что партнёр Oracle — компания Blue Owl — отказалась финансировать дополнительный объект.

10 марта Oracle отчитывается о финансовых результатах третьего квартала финансового года, и инвесторы уделят особое внимание тому, как компания намерена обосновать план капитальных затрат в $50 млрд на фоне отрицательного свободного денежного потока. Они также будут оценивать, сохранится ли у компании доступ к источникам финансирования. В текущем году акции компании уже упали на 23 %, а с пика в сентябре 2025 года потеряли более половины своей стоимости.

Впрочем, проблема устаревания ускорителей касается не только Oracle. Это угроза рынку ИИ в целом, которая может иметь последствия для всего «ИИ-ландшафта». Каждая из подписываемых сегодня инфраструктурных сделок может привести к тому, что оборудование устареет ещё до того, как к ЦОД подключат электроэнергию. Вместе с тем далеко не всем игрокам ИИ-рынка действительно нужны самые последние модели ускорителей, поскольку конкретные задачи и связанная с ними экономика могут заметно отличаться у разных компаний.

Постоянный URL: http://servernews.ru/1138036
08.03.2026 [14:44], Владимир Мироненко

Huawei представила решения для оптических сетей нового поколения для ИИ-нагрузок

Huawei провела на MWC 2026 презентацию продуктов и решений, в рамках которой Боб Чен (Bob Chen), президент подразделения оптических продуктов Huawei, представил продукты и решения для оптических сетей нового поколения, призванные способствовать синергии между ИИ и сетями, с упором на ориентированные на ИИ.

Он отметил, что развитие ИИ открывает новые возможности для операторов, но также предъявляет более высокие требования к пропускной способности сети, задержке и надёжности, делая необходимой модернизацию оптических сетей для эпохи ИИ. Ведущие мировые операторы также ускоряют развертывание оптических сетей следующего поколения.

Боб Чен заявил, что Huawei развивает решения для оптических сетей следующего поколения в двух направлениях: «ИИ для сетей» и «сети для ИИ». В рамках направления «ИИ для сетей» ИИ-технологии обеспечивают интеллектуальное обнаружение волоконно-оптических кабелей, повышают производительность сети и удобство использования, улучшают эффективность эксплуатации и технического обслуживания, а также снижают энергопотребление. В рамках направления «сети для ИИ» расширенные сетевые возможности помогают операторам создавать целевые оптические сети, ориентированные на ИИ, ускоряя внедрение ИИ в домах и на предприятиях.

 Источник изображения: Huawei

Источник изображения: Huawei

«ИИ для сетей»: повышение качества и эффективности сети

  • Интеллектуальное обнаружение проблем: на основе модели обнаружения рисков волоконно-оптических кабелей и модели идентификации неисправностей риски могут быть выявлены заранее с определением места неисправности с точностью до 10 м.
  • Повышение производительности сети: моделирование на основе тысяч оптических параметров значительно повышает точность оценки производительности сети и увеличивает дальность передачи на 20 %.
  • Улучшение качества работы сети: обнаружение помех Wi-Fi и ИИ-регулирование мощности в режиме реального времени повышают скорость на 20 % в условиях помех.
  • Энергосбережение: трафик сервисов анализируется в режиме реального времени с интеллектуальным регулированием работы портов и плат. При отсутствии трафика все порты и платы переводятся в спящий режим, что снижает энергопотребление в среднем на 40 %.
  • Интеллектуальное управление и техническое обслуживание: ИИ-технологии используются для планирования, построения, обслуживания и оптимизации сети. Например, агент по управлению и техническому обслуживанию домашнего широкополосного доступа может автоматически идентифицировать и локализовать более 60 типов неисправностей, помогая инженерам быстро устранять их с помощью взаимодействия на естественном языке.

«Сети для ИИ»: ускорение популяризации ИИ

  • Оптический доступ: сеть с гигабитным нисходящим каналом и восходящим каналом со скоростью 100 Мбит/с для удовлетворения требований к пропускной способности новых домашних ИИ-сервисов и повышения качества работы домашней сети.
  • Оптическая передача: задержка в 5 мс для национальных сетей, 3 мс для региональных сетей и 1 мс для городских сетей обеспечивает доступ к вычислительным ресурсам на уровне миллисекунд и гарантирует оптимальную производительность ИИ-приложений.

В области оптического доступа Huawei представила FAN-продукты следующего поколения, такие как технология FTTR (Fiber-to-the-Room), OLT (Optical Line Terminal), ONT (Optical Network Terminal) и ODN (Optical Distribution Network). В частности, Huawei выпустила продукты OTN (Optical Transport Network) следующего поколения для магистральных и метросетей, помогая операторам создавать агентные UBB-сети.

Постоянный URL: http://servernews.ru/1137970
07.03.2026 [22:57], Владимир Мироненко

Oracle и OpenAI передумали расширять флагманский ИИ ЦОД Stargate в Техасе, чем может воспользоваться Meta✴

Oracle и OpenAI отказались от планов расширения флагманского ИИ ЦОД в Абилине (Abilene, Техасе), одного из первый объектов проекта Stargate, сообщил Bloomberg. Строительство этого ЦОД на территории Clean Campus компании Lancium осуществляет разработчик проекта Crusoe Energy. Объект находится в ведении Oracle в интересах OpenAI.

В сентябре прошлого года были введены в эксплуатацию два здания ЦОД, а в этом году планируется запуск ещё шести, в результате чего его мощность составит около 1,2 ГВт. Далее Oracle и OpenAI планировали увеличить мощность до 2 ГВт. Переговоры об этом между Oracle, Crusoe и OpenAI велись с середины 2025 года, но планы изменились. По словам источников, переговоры затянулись из-за проблем с финансированием, а также в связи с часто меняющимися прогнозами спроса OpenAI и изменением взглядов на Stargate, что в итоге привело к их срыву.

Также на отношения между Oracle и Crusoe повлияли проблемы с надёжностью функционирования объекта. По словам источников, ранее в этом году ЦОД не функционировали в течение нескольких дней из-за зимней непогоды, повлиявшей на работу части оборудования жидкостного охлаждения. Вместе с тем, компании заверили что их партнёрство по-прежнему прочное, и что арендованная Oracle площадка в Абилине быстро развивается.

«Crusoe и Oracle работают в тесном сотрудничестве, чтобы создать одну из крупнейших в мире ИИ-фабрик в Абилине, — говорится в заявлении Crusoe. — Наше сотрудничество позволяет создавать масштабную инфраструктуру быстрее, чем кто-либо другой в отрасли». Также в силе осталась договорённость OpenAI с Oracle, согласившейся поставить для неё 4,5 ГВт мощностей ЦОД. Как сообщает Bloomberg, эта сделка по-прежнему находится в процессе, и компании объявили о ряде проектов в других локациях, например, об объекте недалеко от Детройта, принадлежащем Related Digital.

 Источник изображения: Crusoe Energy

Источник изображения: Crusoe Energy

Что касается отказа от расширения проекта в Абилине, то после публикации статьи Bloomberg руководитель отдела инфраструктуры OpenAI Сачин Катти (Sachin Katti) сообщил в соцсетях следующее: «Наша флагманская площадка Stargate — один из крупнейших кампусов ИИ ЦОД в Соединённых Штатах. Мы рассматривали возможность дальнейшего расширения, но в конечном итоге решили разместить дополнительные мощности в других местах». «Сегодня у нас в разработке более полудюжины площадок в нескольких штатах, включая площадку, которую мы строим совместно с Oracle в Висконсине, где на этой неделе были установлены первые стальные балки», — добавил он, о чём сообщил Data Center Dynamics.

По данным The Information, полноценное электроснабжение на площадке в Абилине будет доступно только через год, к тому времени OpenAI надеется использовать ускорители NVIDIA Vera Rubin вместо ускорителей Blackwell, которые будут установлены в Абилине, поэтому компания предпочла изменить планы. Кроме того, недалеко от первого техасского кампуса Stargate строится и второй — 1,4-ГВт ИИ ЦОД в округе Шакелфорд (Shackelford, Техас) возводится под началом Vantage Data Centers.

 Источник изображения: Crusoe Energy

Источник изображения: Crusoe Energy

Как рассказали источники, когда Crusoe начала подыскивать арендаторов для своего ЦОД в Абилине, к процессу подключилась NVIDIA. Чтобы избежать появления на этой площадке продукции конкурирующего разработчика чипов AMD, компания, как сообщается, внесла Crusoe депозит в размере $150 млн для обеспечения аренды площадки. Сообщается, что провал переговоров между Oracle и OpenAI создал возможность для Meta по аренде запланированной для расширения площадки в Абилине, и NVIDIA ведёт с ней переговоры по этому поводу. Сделка между Crusoe и Meta пока не подписана.

Добавим, что только в этом году Meta планирует направить на капитальные затраты до $135 млрд. В свою очередь, OpenAI намерена инвестировать в вычислительные мощности около $600 млрд к 2030 году, что гораздо меньше ранее заявленных $1,4 трлн к 2033 году. При этом до $300 млрд из этой суммы планируется выделить Oracle, которая сама испытывает трудности с финансированием строительства своих ЦОД, накапливает долги и планирует уволить тысячи сотрудников для снижения расходов.

Постоянный URL: http://servernews.ru/1137954
06.03.2026 [08:58], Руслан Авдеев

Akamai развернёт тысячи ускорителей NVIDIA RTX Blackwell для распределённого инференса

Облачный провайдер Akamai анонсировал покупку «тысяч» ИИ-ускорителей для развития своей распределённой облачной инфраструктуры по всему миру. Развёртывание новых чипов позволит создать единую оптимизированную ИИ-платформу для быстрого и распределённого инференса в глобальной сети Akamai. По словам компании, она готовит базовую инфраструктуру для «физического» и «агентного» ИИ, где решения необходимо принимать в режиме реального времени. Ранее компания анонсировала проект Akamai Inference Cloud.

Как заявляет Akamai, пока крупные облачные бизнесы расширяют проекты обучения ИИ, компания сосредоточилась на удовлетворении потребностей эпохи инференса. Централизованные ИИ-фабрики имеют важное значение для создания моделей, но для их масштабной эксплуатации необходима децентрализованная «нервная система». Внедрение NVIDIA Blackwell в распределённая инфраструктуру, как ожидается, позволит ИИ взаимодействовать с «физическим» миром на местах — с системами автономной доставки, умными энергосетями, роботами-хирургами, антифрод-системами т.п. — без географических и финансовых ограничений, характерных для классических облаков.

Интеграция ускорителей Blackwell обеспечит:

  • предсказуемый, высокопроизводительный инференс на выделенных кластерах для получения быстрых ответов;
  • оптимизацию ИИ-моделей на месте для обеспечения конфиденциальности данных в соответствии с локальными требованиями;
  • дообучение — тонкую настройку базовых ИИ-моделей с использованием собственных данных пользователей.
 Источник изображения: Akamai

Источник изображения: Akamai

Предоставляя инструментарий для выполнения задач ближе к конечным пользователям, Akamai обеспечивает высокую пропускную способность и, как утверждается, одновременно снижает задержку до 2,5 раз. Это позволит бизнесам экономить до 86 % на инференсе в сравнении с обычными облачными компаниями-гиперскейлерами. Платформа объединяет серверы на основе ускорителей NVIDIA RTX Pro 6000 Blackwell Server Edition с DPU NVIDIA BlueField-3 и распределённую облачную инфраструктуру Akamai с 4,4 тыс. точек присутствия.

Cloudflare применяет платформу с «бессерверным» инференсом в более чем 200 городах. Её Workers AI обеспечивают глобальный инференс с задержкой менее 100 мс без специального выделения кластеров ускорителей. Fastly применяет платформу периферийных вычислений, но предлагает меньшее количество локальных точек присутствия (PoP) для выполнения задач на GPU/CPU.

Постоянный URL: http://servernews.ru/1137818

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;