Материалы по тегу: hardware

11.03.2026 [11:20], Владимир Мироненко

Спрос на сетевые ИИ-решения обеспечил HPE один из самых прибыльных кварталов

Компания HPE объявила финансовые результаты за I квартал 2026 финансового года, закончившийся 31 января 2026 года. Показатели в основном превзошли ожидания аналитиков благодаря растущему спросу на сетевые решения на основе ИИ, отметил ресурс Datacenterknowledge.com.

Выручка компании выросла год к году на 18 % — до $9,30 млрд, что немного ниже консенсус-прогноза аналитиков, опрошенных LSEG, в размере $9,33 млрд (по данным Reuters). Скорректированная прибыль (non-GAAP) на разводнённую акцию в размере $0,65 превысила прогноз Уолл-стрит в $0,59. Чистая прибыль (GAAP) составила $423 млн и $0,31 на разводнённую акцию, что ниже показателей годом ранее — $598 млн и $0,44, но выше собственного прогноза компании.

 Источник изображений: HPE

Источник изображений: HPE

Антонио Нери (Antonio Neri), президент и генеральный директор HPE, заявил, что это был один из самых прибыльных кварталов за всю историю компании. «Высокий спрос, разумное управление затратами и более быстрая, чем планировалось, синергия Juniper и Catalyst способствовали нашим результатам», — сообщила финансовый директор Мари Майерс (Marie Myers).

Выручка нового сегмента HPE «Облачные технологии и ИИ», объединяющего бизнес HPE в области серверов, хранения данных и финансовых услуг, составила $6,3 млрд, что на 2,7 % меньше, чем за аналогичный период прошлого года, при этом маржа операционной прибыли составила 10,2 % против 8,4 % годом ранее. В том числе выручка от продаж серверов составила $4,2 млрд (снижение год к году на 2,7 %), продажи СХД — $1,1 млрд (рост на 0,6 %), выручка от финансовых услуг — $0,9 млрд (рост на 0,3 %).

Выручка сегмента «Сетевое оборудование», который включает бывший сегмент «Интеллектуальная периферия» и Juniper Networks, составила $2,7 млрд, что на 151,5 % больше, чем за аналогичный период прошлого года. В том числе выручка от кампусных и филиальных сетей (Campus & Branch) достигла $1,2 млрд (рост на 42 % год к году). Продажи сетевого оборудования для ЦОД принесли $444 млн (рост на 382,6 %) благодаря увеличению спроса на высокопроизводительные сети, используемые в ИИ-кластерах.

Продукты безопасности принесли $255 млн выручки, что на 114 % больше год к году, а направление маршрутизации — $780 млн по сравнению с $1 млн в аналогичном периоде прошлого года, что отражает добавление портфеля маршрутизации Juniper. Операционная маржа сегмента составила 23,7 %, что ниже, чем в прошлом году (29,7 %), в основном из-за затрат на интеграцию и изменений в ассортименте продукции.

Выручка от корпоративных инвестиций и прочих услуг составила $261 млн, что на 2,2 % меньше, чем за аналогичный период прошлого года, при этом маржа операционной прибыли составила −4,6 % по сравнению с −3,0 % годом ранее. В этот сегмент входят консультационные и профессиональные услуги, а также результаты деятельности лаборатории Hewlett Packard. В него также в 2026 финансовом году были включены телекоммуникационный бизнес и Instant On.

HPE сообщила, что её портфель заказов на ИИ-решения превысил $5 млрд, при этом на корпоративных и государственных клиентов приходится 64 % от общего объёма заказов.

В текущем финансовом квартале компания ожидает, что квартальная выручка составит от $9,6 до $10,0 млрд, что выше средней оценки аналитиков, опрошенных LSEG, в $9,58 млрд.

HPE повысила свой прогноз по скорректированной прибыли на акцию (non-GAAP) на 2026 финансовый год до $2,30–$2,50 по сравнению с предыдущим прогнозом в $2,25–$2,45. Также компания повысила прогноз по годовому росту выручки в сегменте сетевого оборудования до 68–73 %.

Акции компании выросли примерно на 1,3 % на дополнительных торгах после публикации финансовых результатов. Вместе с тем с начала года акции HPE упали примерно на 9 %, в то время как у конкурента, компании Dell, был зафиксирован рост на 16,4 %.

Постоянный URL: http://servernews.ru/1138110
11.03.2026 [10:54], Руслан Авдеев

Alibaba Cloud ускорит строительство дата-центра на основе собственных ИИ-чипов Zhenwu в Шанхае

Alibaba Cloud прилагает усилия, чтобы ускорить строительство ранее запланированного дата-центра в Шанхае. Китайский облачный гигант объявил о подписании соглашения с властями района Цзиньшань городского подчинения, предусматривающего строительство в городе дата-центра для использования ИИ-чипов собственной разработки, сообщает Datacenter Dynamics.

Речь идёт о части проекта Aspara Cloud Intelligent East China Computing Center. По данным Alibaba, новый ЦОД будет одним из крупнейших «умных вычислительных хабов» в Восточном Китае. Оборудование будет построено на ИИ-ускорителях Zhenwu — они разработаны подразделением Alibaba — T-Head.

Новейшей моделью является чип Zhenwu 810E, имеющий 96 Гбайт памяти HBM2e. Модель построена на собственной архитектуре компании T-Head и оснащена проприетарными интерконнектами ICN (Inter-Chip Network), обеспечивающими пропускную способность 700 Гбит/с. Она разработана для обучения ИИ и инференса и полностью работает с программным обеспечением собственной разработки.

Alibaba и Цзиньшань взаимодействуют довольно давно, в 2021 году они совместно запустили вычислительный центр с инвестициями порядка ¥40 млрд ($5,8 млрд).

 Источник изображения: Henry Chen/unsplash.com

Источник изображения: Henry Chen/unsplash.com

Согласно новому договору, Alibaba Cloud построит вычислительный объект, который станет образцом для создания «зелёных» ЦОД. Предусмотрена полная независимость от сторонних технологий, включая использование чипов и вычислительных платформ собственной разработки, а также программного обеспечения.

У Alibaba Cloud уже имеются «умные вычислительные хабы» в Чжанбэе и Уланчабе, которые компания рассчитывает объединить для создания национальной сети вычислений. Китайский облачный провайдер сегодня оперирует более чем 94 зонами доступности в 29 регионах. Ранее в 2026 году компания заявила, что рассматривает возможность увеличить капитальные расходы на ИИ-инфраструктуру до ¥480 млрд ($69,05 млрд) в следующие три года; в начале 2025 года речь шла о ¥380 млрд ($52,4 млрд).

Согласно данным Omdia, в Китае Alibaba контролирует более трети локального рынка ИИ-облаков. По информации гонконгского издания SCMP, в распоряжении Alibaba Cloud было 35,8 % соответствующих мощностей. Второе место занимала Volcano Engine (фактически ByteDance) с 14,8 %. Впрочем, имеются и другие данные. По информации Frost & Sullivan, среди китайских облачных провайдеров, контролирующих всю цепочку создания стоимости «от чипа до облака», лидерами являются Huawei и Baidu.

В январе 2026 года сообщалось, что Alibaba Group запустила совместное предприятие с государственной компанией China National Nuclear Company (CNNC), занимающейся реализацией атомных проектов. Проект оценивается в ¥250 млн ($35,9 млн) и, возможно, поможет обеспечивать мощности IT-гиганта эгнергией, хотя реальный масштаб сотрудничества пока не раскрывается.

Постоянный URL: http://servernews.ru/1138109
11.03.2026 [09:39], Руслан Авдеев

Thinking Machines Lab развернёт 1 ГВт мощностей на основе Vera Rubin при поддержке NVIDIA

NVIDIA заключила соглашение с Thinking Machines Lab о развёртывании оборудования на основе ускорителей Vera Rubin мощностью не менее 1 ГВт. Проект будет реализован для поддержки обучения передовых моделей стартапа, сообщает Datacenter Dynamics.

NVIDIA также добавила, что вложила в Thinking Machines значительные средства. Кроме того, в рамках партнёрства компании намерены совместно разрабатывать системы обучения, оптимизированные для архитектуры NVIDIA, а также расширять доступ к передовым ИИ-моделям.

Где и когда будет развёрнуто оборудование, объявят позже; финансовые подробности сделки также пока не раскрываются. NVIDIA сообщила, что развёртывание оборудования на основе Vera Rubin планируется в начале 2027 года.

Глава NVIDIA Дженсена Хуанга (Jensen Huang) уже заявил, что ИИ — мощнейший инструмент познания в истории человечества, и компания рада сотрудничать с Thinking Machines для воплощения в жизнь захватывающего видения будущего ИИ, предложенного стартапом.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Thinking Machines, основанная в феврале 2025 года бывшим техническим директором OpenAI Мирой Мурати (Mira Murati), по данным самой компании, разрабатывает «мультимодальные системы, работающие совместно с людьми» — в противовес полностью автономным ИИ-системам, над которыми работают другие ИИ-компании.

В октябре 2025 года Thinking Machines анонсировала так называемый API Tinker — он разработан для упрощения тонкой настройки open source-моделей.

По данным Reuters, на июль 2025 года компания привлекла $2 млрд инвестиций от NVIDIA, AMD, Cisco и других инвесторов; её капитализация составляла $12 млрд.

Впрочем, не всё идёт гладко: в январе она лишилась двух соучредителей, которые предпочли вернуться в OpenAI. При этом NVIDIA активно инвестирует и в OpenAI — недавно стороны договорились о вложении в последнюю $30 млрд в обмен на её акции.

Постоянный URL: http://servernews.ru/1138106
11.03.2026 [09:25], Сергей Карасёв

Intel выпустила Bartlett Lake — LGA 1700-процессоры исключительно на P-ядрах Raptor Cove для периферийных систем

Корпорация Intel в ходе конференции Embedded World 2026, которая с 10 по 12 марта проходит в Нюрнберге (Германия), анонсировала процессоры Core Series 2 семейства Bartlett Lake, рассчитанные на использование в критически важных периферийных системах и промышленном оборудовании.

Представленные чипы используют исключительно производительные Р-ядра, количество которых варьируется от 8 до 12 (с возможностью обработки до 24 потоков инструкций). Показатель TDP в зависимости от модификации составляет 45, 65 или 125 Вт.

 Источник изображений: Intel

Источник изображений: Intel

На сегодняшний день в семейство Core Series 2 входят 11 процессоров (см. технические характеристики ниже). Их базовая тактовая частота варьируется от 1,4 до 3,5 ГГц, максимальная частота — от 5,2 до 5,9 ГГц (в турбо-режиме). Объём кеша — от 24 до 36 Мбайт. Чипы могут использовать до 192 Гбайт оперативной памяти DDR5-5600 или DDR4-3200 с поддержкой ECC. В состав изделий входит ускоритель UHD Graphics 770; возможен вывод изображения одновременно на четыре дисплея (вплоть до 4К). Процессоры предлагают до 20 линий PCIe (16 × PCIe 5.0 и 4 × PCIe 4.0). Упомянута поддержка высокоскоростной шины DMI 4.0 (Direct Media Interface 4.0). Кроме того, говорится о совместимости с чипами Core 12-го, 13-го и 14-го поколений для периферийных устройств, что должно упростить модернизацию существующих встраиваемых систем на базе LGA1700.

По заявлениям Intel, процессоры Core Series 2 обеспечивают прирост производительности до 1,8 раза (TOPS) по сравнению с решениями предыдущего поколения. Новые чипы оптимизированы для работы с операционными системами реального времени (RTOS). Сопутствующий чипсет Intel PCH обеспечивает поддержку до 12 линий PCIe 4.0 и до 16 линий PCIe 3.0, Wi-Fi 7 и Bluetooth 5.4, 2.5GbE и пр. 

Постоянный URL: http://servernews.ru/1138104
10.03.2026 [17:49], Владимир Мироненко

Groq увеличил заказ на производство ИИ-чипов у Samsung более чем в 1,5 раза

ИИ-стартап Groq, приобретённый NVIDIA за $20 млрд, направил Samsung Electronics запрос на увеличение производства своих чипов, сообщил Chosunbiz со ссылкой на информированные источники.

Источники утверждают, что Groq недавно принял решение увеличить производство ИИ-чипов, которое в прошлом году было передано на аутсорсинг подразделению Samsung Electronics, с примерно 9 тыс. пластин до примерно 15 тыс. Если в прошлом году объём производства был ограничен изготовлением опытных образцов чипов для определения их эффективности при использовании для ИИ-инференса, то в этом году, судя по объёму, Groq находится на ранней стадии массового производства для выхода на коммерческие рельсы.

 Источник изображения: Groq

Источник изображения: Groq

Как отметил Chosunbiz, хотя объём поставок Groq для Samsung Electronics невелик, подразделение Samsung Electronics активно работает с потенциальными клиентами, чтобы заложить основу для получения крупных заказов на поставку ИИ-чипов. Помимо Groq, подразделение Samsung Electronics также производит весь ассортимент процессоров для HyperExcel — южнокорейского стартапа по разработке чипов для ИИ-инференса. Samsung Electronics производит ИИ-чипы для Groq и HyperExcel по 4-нм техпроцессу.

По словам источника в полупроводниковой отрасли, «4-нм техпроцесс, используемый Samsung Electronics для массового производства чипов Groq для ИИ-нагрузок, включает ряд улучшенных процессов для повышения производительности чипа. Учитывая высокую стоимость процесса и самый высокий спрос в отрасли на 4–5-нм техпроцессы, это также имеет важное значение для обеспечения конкурентного преимущества перед TSMC». Собеседник ресурса Chosunbiz прогнозирует, что с учётом выхода NVIDIA на рынок ИИ-чипов и увеличения производства Groq ожидается бурный рост рынка чипов для ИИ-инференса.

Ожидается, что на мероприятии GTC 2026 NVIDIA представит чип для ИИ-инференса на основе дизайна, разработанного Groq, в котором используется память SRAM вместо HBM. Как сообщают источники, одним из заказчиков нового чипа будет OpenAI.

Постоянный URL: http://servernews.ru/1138075
10.03.2026 [17:10], Руслан Авдеев

KKR задумала продать производителя СЖО CoolIT почти в 10 раз дороже, чем покупала

Американский инвестиционный гигант KKR рассчитывает хорошо заработать на продаже одной из именитых IT-компаний, работающей на рынке систем охлаждения с 2001 года. Бум ИИ привёл к тому, что оценочная стоимость компании CoolIT Systems выросла в несколько раз, сообщает The Financial Times.

По данным знакомых с ситуацией источников, KKR и её консультанты работают над продажей компании за $3 млрд. CoolIT, переориентировавшаяся с выпуска систем охлаждения для игровых ПК на СЖО для дата-центров, в 2023 году, на момент покупки KKR контрольного пакета, стоила всего $270 млн. Миноритарной долей владеет суверенный государственный инвестор Mubadala из ОАЭ.

По информации источников, пока обсуждение продажи CoolIT находится на ранней стадии и гарантии того, что сделка вообще состоится, отсутствуют. Тем не менее, несколько компаний уже выбраны в качестве потенциальных «стратегических» покупателей. По данным Datacenter Dynamics, ранее CoolIT привлекла около $10 млн в ходе четырёх раундов финансирования. В числе предыдущих инвесторов: Business Development Bank of Canada, nVent, Kline Hill Partners, Vistara Capital Partners, Inovia Partners, AVAC Group и Chart Venture Partners.

 Источник изображения: CoolIT Systems

Источник изображения: CoolIT Systems

Масштабная эволюция инфраструктуры ЦОД и развитие ИИ-технологий стали импульсом к росту сделок, напрямую не связанных с компаниями технологического сектора. В частности, речь идёт об энергетике и промышленных сделках с участием поставщиков для ИИ-инфраструктуры. Как свидетельствуют данные НКО American Edge Project, в США уже строятся или планируются к строительству около 3 тыс. дата-центров, не считая 4 тыс. уже действующих площадок. Это неизбежно увеличивает потенциальный спрос на оборудование и сервисы CoolIT. Тем не менее, инвесторы начинают ставить под сомнение окупаемость многих инвестиций крупных компаний в новые дата-центры.

В 2025 году производственная компания Eaton заплатила $9,5 млрд за связанный с теплообменными решениями бизнес Boyd Corporation. Предполагается, что это позволит расширить портфолио решений для ЦОД. Купленный бизнес, вероятно, уже в 2026 году принесёт около $1,7 млрд выручки, причём большая её часть приходится на СЖО-решения. Конкурент Vertiv также купил компанию PurgeRite сходного профиля в том же году, заплатив около $1 млрд.

На днях частные инвестиционные компании Global Infrastructure Partners (GIP, принадлежит BlackRock) и EQT заключили сделку на $33 млрд, организовав покупку энергокомпании AES Corporation. В своё распоряжение они получили бизнес, генерирующий возобновляемую энергию в огромных объёмах для дата-центров.

В последние годы эксперты называют KKR одним из самых агрессивных частных инвесторов, скупающих ЦОД. В 2021 году совместно с GIP она приобрела американского оператора ЦОД CyrusOne. Сделка обошлась в $15 млрд, включая долг.

Постоянный URL: http://servernews.ru/1138059
10.03.2026 [16:30], Руслан Авдеев

ИИ-неооблако Nscale привлекло ещё $2 млрд

Занимающаяся строительством ИИ-фабрик компания Nscale — ключевой элемент стратегии развития ИИ британских властей — объявила о привлечении $2 млрд в ходе раунда финансирования серии C, сообщает Computer Weekly. В итоге за период чуть более года объём финансирования бизнеса превысит $4,9 млрд, новый раунд довёл оценку капитализации компании приблизительно до $14,6 млрд.

Во многом такие оценки основаны на планах строительства Nscale дата-центров общей мощностью более 1,3 ГВт. Также компания сообщила о контрактах на поставку 200 тыс. ИИ-ускорителей NVIDIA GB300 и сделках о предоставлении мощностей компании Microsoft на $23 млрд на многих из планируемых площадок.

В 2025 году Nscale объявила о готовности вложить $2,5 млрд в дата-центры Великобритании до 2028 года. Речь идёт как о стационарных объектах, так и о модульных ЦОД. В середине 2024 года Nscale приобрела провайдера модульных ЦОД — Kontena. Такие дата-центры позволяют использовать предварительно изготовленные готовые решения, поставку которых можно организовать за считанные месяцы вместо двух-трёх лет для капитальных построек.

Ключевой проект — кампус в Лоутоне (Loughton, Эссекс) мощностью от 50 МВт с возможностью расширения до 90 МВт; он считается крупнейшим ИИ ЦОД в Великобритании и предусматривает использование 23 тыс. NVIDIA GB300. Запуск планируется в IV квартале 2026 года. Площадка сочетает модульную конструкцию для быстрого развёртывания со «стационарными» мощностями, которые будут доступны несколько позднее.

Дополнительно Nscale строит ЦОД в Гломфьорде (Glomfjord) в Норвегии, где уже имеются модульные мощности на 30 МВт, а также планируется построить ещё 60 МВт с питанием от ГЭС. В Норвегии также имеется проект Stargate Norway: к начальным 230 МВт планируется добавить инфраструктуру ещё на 290 МВт в рамках проекта, реализуемого совместно с OpenAI и Aker ASA. В Барстоу (Barstow, Техас) на арендованных мощностях для Microsoft будет развёрнуто 104 тыс. ИИ-ускорителей в рамках проекта мощностью 234 МВт. Проект должны ввести в эксплуатацию в III квартале 2027 года; позже его планируется масштабировать до 1,2 ГВт.

 Источник изображения: Nscale

Источник изображения: Nscale

В Синише (Sines, Португалия) изначально планируется развернуть 12,6 тыс. ускорителей NVIDIA GB300, мощность составит около 20 МВт; для охлаждения оборудования планируется использовать морскую воду. Наконец, в Кеблавике (Keflavík, Исландия) в 2026 году планируется развернуть порядка 4,6 тыс. ускорителей NVIDIA с энергопотреблением около 15 МВт, обеспечиваемым геотермальными источниками и ГЭС. Также Nscale имеет свободные мощности ЦОД в арендованных объектах на двух дополнительных площадках в Норвегии, а также в Северной Каролине и др.

Nscale зарегистрирована в Великобритании. Лидерами нового раунда финансирования являются норвежская инвестиционная Aker ASA и американский инвестиционный фонд 8090 Industries. В числе других инвесторов — Dell, Lenovo, Nokia и NVIDIA. Компания позиционирует себя как единственного поставщика комплексной инфраструктуры для современного ИИ, а также упоминается в правительственных пресс-релизах, посвящённых сотрудничеству с OpenAI для создания суверенных вычислительных ИИ-мощностей и участию в проекте строительства ЦОД в Лоутоне.

Одновременно с привлечением новых средств объявлено о назначении одного из известнейших британских политиков — бывшего вице-премьера Ника Клегга (Nick Clegg) — членом совета директоров. Параллельно Клегг числится партнёром инвестиционной компании Hiro Capital. Также он занимал должность президента по глобальным вопросам в Meta. Дополнительно в совет директоров вошли бывший операционный директор (COO) Meta Шерил Сэндберг (Sheryl Sandberg) и бывший президент Yahoo Сьюзан Декер (Susan Decker).

Постоянный URL: http://servernews.ru/1138044
10.03.2026 [16:25], Руслан Авдеев

CNBC: Oracle строит «вчерашние» дата-центры за счёт будущих долгов

Поколения ИИ-ускорителей обновляются значительно быстрее, чем строятся новые ЦОД. Эта тенденция представляет угрозу как для рынка ИИ-решений в целом, так и для экспансии Oracle, в значительной степени финансируемой за счёт долговых средств, сообщает CNBC.

По последним данным, OpenAI больше не планирует расширять партнёрство с Oracle в Абилине (Abilene, Техас), где расположен флагманский ЦОД проекта Stargate. Причина в том, что ИИ-компания нуждается в кластерах с новейшими поколениями ускорителей NVIDIA, а возможности Oracle поставить их OpenAI — под вопросом. В воскресенье Oracle назвала новости о своей деятельности «ложными и неправильными», но в посте компании говорилось лишь о существующих проектах, а планов масштабирования объявление не касалось.

Площадка в Абилине будет использовать ускорители NVIDIA Blackwell, но энергия для них начнёт поступать лишь через год. К тому времени OpenAI рассчитывает получить «расширенный» доступ к чипам NVIDIA нового поколения в более крупных кластерах, в других местах. В своё время Oracle получила землю, заказала оборудование и потратила миллиарды долларов на строительство и персонал в расчёте на будущий рост. Теперь в компании отказываются подробно комментировать эту информацию.

Отказ от дальнейшего расширения был бы вполне логичным шагом для OpenAI, которой не нужны устаревшие чипы. Раньше NVIDIA представляла новое поколение ИИ-ускорителей каждые два года, но теперь её глава Дженсен Хуанг (Jensen Huang) объявил, что компания перешла на ежегодный цикл обновления, и каждое новое поколение значительно превосходит предыдущее по производительности. Например, представленные в январе 2026 года ускорители Vera Rubin впятеро производительнее Blackwell при инференсе.

 Источник изображения: Amy Hirschi/unsplash.com

Источник изображения: Amy Hirschi/unsplash.com

Для компаний, создающих передовые ИИ-модели, малейшее отставание в производительности оборудования может означать серьёзное отставание в бенчмарках и рейтингах. При этом рейтинги внимательно отслеживаются специалистами и бизнесом и сильно влияют на уровень использования ИИ-продуктов, выручку и капитализацию. Тем временем у инфраструктурных компаний на получение участка, подключение электроэнергии, строительство и ввод в эксплуатацию дата-центра уходит минимум год-два, а клиентам требуется новейшее оборудование, которое теперь обновляется каждый год.

Дополнительной проблемой Oracle является то, что это единственный гиперскейлер, строящий новую инфраструктуру преимущественно за счёт заёмных средств: долги достигли $100 млрд и продолжают расти. Напротив, Google, AWS и Microsoft пользуются полноводными потоками денег, получаемых от других направлений своей деятельности, приносящих значительную выручку. Сообщается, что партнёр Oracle — компания Blue Owl — отказалась финансировать дополнительный объект.

10 марта Oracle отчитывается о финансовых результатах третьего квартала финансового года, и инвесторы уделят особое внимание тому, как компания намерена обосновать план капитальных затрат в $50 млрд на фоне отрицательного свободного денежного потока. Они также будут оценивать, сохранится ли у компании доступ к источникам финансирования. В текущем году акции компании уже упали на 23 %, а с пика в сентябре 2025 года потеряли более половины своей стоимости.

Впрочем, проблема устаревания ускорителей касается не только Oracle. Это угроза рынку ИИ в целом, которая может иметь последствия для всего «ИИ-ландшафта». Каждая из подписываемых сегодня инфраструктурных сделок может привести к тому, что оборудование устареет ещё до того, как к ЦОД подключат электроэнергию. Вместе с тем далеко не всем игрокам ИИ-рынка действительно нужны самые последние модели ускорителей, поскольку конкретные задачи и связанная с ними экономика могут заметно отличаться у разных компаний.

Постоянный URL: http://servernews.ru/1138036
10.03.2026 [12:58], Сергей Карасёв

Jetway выпустила индустриальную плату ATX-ARS1-W880 на базе Intel Arrow Lake-S

Компания Jetway анонсировала индустриальную материнскую плату ATX-ARS1-W880, предназначенную для платформ автоматизации, робототехнических комплексов и пр. Новинка рассчитана на эксплуатацию в температурном диапазоне от -20 до +60 °С.

Изделие выполнено в форм-факторе АТХ с размерами 305 × 244 мм. Применён набор логики Intel W880: возможна установка процессоров семейства Arrow Lake-S в исполнении LGA1851 с показателем TDP до 125 Вт. Доступны четыре слота CU-DIMM (Clocked Unbuffered DIMM) с поддержкой до 256 Гбайт памяти DDR5-6400.

Плата располагает четырьмя портами SATA-3 для накопителей с возможностью формирования массивов RAID 0/1/5/10. Кроме того, имеются коннекторы М.2 M-Key 2242/2260/2280/22110 (PCIe 5.0 x4) и М.2 M-key 2280 (PCIe 4.0 x4) для NVMe SSD. В арсенале новинки — сетевой порт 2.5GbE RJ45 на основе контроллера Intel I226-LM и два порта 2.5GbE RJ45 на базе Intel I226-V. Реализованы слот M.2 E-Key 2230 (USB 2.0/PCIe 3.0 x1; CNVio) для комбинированного адаптера Wi-Fi / Bluetooth и разъём M.2 B-Key 3042/3052 (USB3.1/USB2.0/PCIe 3.0 x1 плюс NanoSIM) для сотового модема 4G/5G.

 Источник изображения: Jetway

Источник изображения: Jetway

Возможен вывод изображения одновременно на четыре независимых монитора через интерфейс DP1.4a (до 4096 × 2160; 60 Гц), два выхода HDMI 2.1 (до 3840 × 2160; 60 Гц) и аналоговый коннектор D-Sub (1920 × 1080; 60 Гц). Доступны шесть портов USB 3.1 Type-A (10 Гбит/с), последовательный порт RS-232/422/485 и набор аудиогнёзд на 3,5 мм. Через разъёмы на самой плате могут быть задействованы два порта USB 3.0 (5 Гбит/с), шесть портов USB 2.0, а также пять портов RS-232. Плата получила по два слота PCIe 5.0 x16 (1 × PCIe 5.0 ×16 или 2 × PCIe 5.0 x8) и PCIe 4.0 x4, а также три слота PCIe 4.0 x1. Есть два коннектора для вентиляторов охлаждения. Опционально может быть добавлен модуль TPM 2.0 (dTPM) для обеспечения безопасности. Заявлена совместимость с Windows 11 и Linux.

Постоянный URL: http://servernews.ru/1138037
10.03.2026 [12:52], Сергей Карасёв

QCT представила сервер QuantaEdge EGN77C-2U на базе NVIDIA Grace для инфраструктур AI-RAN

Компания Quanta Cloud Technology (QCT) анонсировала сервер QuantaEdge EGN77C-2U, использующий дизайн NVIDIA Aerial RAN Computer Pro (ARC-Pro) и подход Nokia anyRAN. Новинка, как ожидается, позволит телеком-операторам ускорить переход к программно-определяемым сетям 5G и 6G с поддержкой ИИ (AI-RAN).

Устройство имеет архитектуру 2U2N — два узла в корпусе 2U. Задействованы чипы NVIDIA Grace, объединяющие 72 вычислительных ядра Arm Neoverse V2 (Armv9). Объём памяти LPDDR5X составляет 512 Гбайт в расчёте на узел. В оснащение каждого узла входят GPU-ускоритель NVIDIA RTX PRO 4500 Blackwell, сетевые адаптеры NVIDIA ConnectX-8 Ethernet SuperNIC, 16 портов 25GbE и два порта 400GbE.

«Отрасль вступает в новую эпоху беспроводной связи, изначально основанную на ИИ. С помощью QuantaEdge EGN77C-2U, платформы NVIDIA AI Aerial и программного обеспечения Nokia anyRAN мы формируем единую среду, которая поддерживает бесшовную интеграцию ИИ и сетей радиодоступа следующего поколения», — говорит Майк Янг (Mike Yang), президент QCT.

 Источник изображения: QCT

Источник изображения: QCT

Подчёркивается, что сети, изначально созданные на основе ИИ, предлагают качественно новые возможности в плане производительности, эффективности и функциональности. Программно-определяемая архитектура RAN на базе ИИ поможет справляться с экспоненциальным ростом объёмов передаваемых данных и появлением новых ресурсоёмких рабочих нагрузок. Алгоритмы ИИ поддерживают интеллектуальное управление, что позволяет оптимизировать работу сетей в зависимости от текущей ситуации. В результате, может быть сформирован задел для будущих систем связи 6G, которые обеспечат высочайшие скорости передачи информации при минимальных задержках.

Постоянный URL: http://servernews.ru/1138034

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;