Материалы по тегу: s

17.03.2026 [00:52], Владимир Мироненко

TrueNAS Connect обеспечит пользователям Community Edition и сторонних СХД бесплатный доступ к продвинутым функциям TrueNAS Enterprise

Компания TrueNAS (ранее — iXsystems) объявила о доступности сервиса TrueNAS Connect, который позиционируется как своего рода мост для доступа к корпоративным функциям хранения данных TrueNAS без необходимости приобретения её оборудования.

TrueNAS Enterprise отличается от бесплатной TrueNAS Community Edition для NAS-устройств и других систем хранения данных, основанной на Linux, расширенными возможностями, включая проактивное оповещение, расширенное управление, безопасность уровня оборонных стандартов, повышение производительности, интеграцию со сторонним программным обеспечением и т. д.

Доступ к этим функциям ранее можно было получить только через коммерческие партнёрские отношения с TrueNAS в рамках бизнес-модели Open-Core, например приобретая устройства TrueNAS Enterprise — различные серверы и решения для хранения данных с предустановленной TrueNAS Enterprise, предоставляющей самый продвинутый набор функций для этой открытой платформы.

«TrueNAS Connect был представлен в начале 2026 года как решение для мониторинга и управления, расширяющее и улучшающее вашу установку TrueNAS за счёт дополнительных веб-функций, а также упрощающее процесс развёртывания для новых пользователей. В течение 2026 года TrueNAS Connect также станет мостом между нашей бесплатной версией Community Edition и нашими корпоративными устройствами Enterprise», — отметила компания.

 Источник изображения: TrueNAS

Источник изображения: TrueNAS

Новое решение позволяет клиентам пользоваться расширенными функциями без необходимости приобретения устройств TrueNAS Enterprise. Это является подходящим вариантом для тех, кто уже инвестировал в другое оборудование или вынужден использовать его в соответствии с требованиями организации, но хочет максимально использовать возможности TrueNAS в корпоративной среде, отметил ресурс Phoronix.

Компания пояснила, что Community Edition предназначена для энтузиастов, домашних лабораторий, студентов и самостоятельных технических команд, которым нужна мощная платформа хранения данных без лицензионных сборов. Она включает в себя полноценную OpenZFS с поддержкой файловых, блочных и объектных протоколов, виртуальных машин, Docker, приложений и многим другим. Версия будет оставаться бесплатной — ничего не удаляется, и постоянно добавляются новые open source функции.

В свою очередь, TrueNAS Enterprise предназначена для ИТ-руководителей и профессиональных организаций, которым нужны готовые к использованию высокодоступные устройства, безопасность уровня оборонного предприятия, выделенная поддержка и глубокая интеграция с такими платформами, как VMware, Proxmox и Veeam.

TrueNAS Connect предоставляет новые возможности для опытных пользователей: профессионалов, малых предприятий и т. д. «Это мост, обеспечивающий возможности корпоративного класса, такие как расширенный мониторинг, веб-доступ, проактивные оповещения, управление несколькими системами и защита от программ-вымогателей, для вашего собственного оборудования», — сообщила TrueNAS, добавив, что планирует в ближайшие годы предложить больше дополнительных функций для опытных пользователей.

TrueNAS Connect включает бесплатный уровень Foundation, который охватывает базовую функциональность, а также платные уровни Plus и Business. Последний появится в будущем, он ориентирован на команды, которым требуется больше возможностей. Он также значительно упрощает установку Community Edition на оборудование bare metal.

Компания отметила, что бизнес-модель Open-Core не меняется. ПО TrueNAS остаётся основой для всех трёх версий. Многие новые функции будут автоматически включены в бесплатную версию Community Edition. TrueNAS Connect управляет лицензированием и разрешениями, которые обеспечивают возможности Enterprise, выходящие за рамки бесплатного уровня.

Постоянный URL: http://servernews.ru/1138386
14.03.2026 [18:42], Владимир Мироненко

Царь-ускорители Cerebras в облаке AWS пятикратно ускорят инференс ИИ

Amazon Web Services (AWS) и Cerebras Systems объявили о сотрудничестве, «которое позволит создать в ближайшие месяцы самые быстрые решения для инференса в системах генеративного ИИ и рабочих нагрузок машинного обучения». Решение, которое будет развёрнуто на платформе Amazon Bedrock в ЦОД AWS, объединяет серверы на базе ускорителей Trainium, системы Cerebras CS-3 на базе царь-чипов WSE-3 и DPU EFA. Ожидается, что эта технология увеличит скорость генерации результатов ИИ-моделями в пять раз. Позже в этом году AWS предложит ведущие open source решения машинного обучения и собственные ИИ-модели Amazon Nova, использующие оборудование Cerebras.

Как отметил Дэвид Браун (David Brown), вице-президент по вычислительным и машинным сервисам AWS, при инференсе критическим узким местом для ресурсоёмких рабочих нагрузок, таких как помощь в кодировании в реальном времени и интерактивные приложения, остаётся скорость: «Решение, которое мы разрабатываем совместно с Cerebras, решает эту проблему: разделяя нагрузку по инференсу между Trainium и CS-3 и соединяя их с помощью EFA, каждая система делает то, что у неё лучше всего получается. В результате инференс будет на порядок быстрее и производительнее, чем сегодня».

 Источник изображения: Amazon

Источник изображения: Amazon

Совместное решение использует «дезагрегацию вывода» — метод, который разделяет ИИ-инференс на два этапа: этап интенсивной обработки подсказок, или «предварительного заполнения» (процесс обработки запроса LLM), и этап генерации выходных данных, известный как «декодирование», на котором модель формирует ответ на вопрос пользователя.

 Источник изображений: Cerebras

Источник изображений: Cerebras

Предварительное заполнение является параллельным, вычислительно интенсивным процессом и не требует большой пропускной способности памяти. Декодирование, с другой стороны, является последовательным процессом с минимальными требованиями к вычислительным ресурсам, но интенсивно использует пропускную способность памяти. Декодирование обычно занимает большую часть времени при инференсе, поскольку каждый выходной токен должен генерироваться последовательно, отметила AWS.

Задачи предварительного заполнения и декодирования обычно выполняются одним и тем же чипом. В дезагрегированной архитектуре AWS чипы Trainium обеспечивают этап предварительного заполнения, а чипы WSE-3 выполняют декодирование. «Дезагрегированный подход идеален, когда у вас большие, стабильные рабочие нагрузки, — сообщил в блоге директор по маркетингу продукции Cerebras Джеймс Ванг (James Wang). — Большинство клиентов используют смешанные рабочие нагрузки с различными коэффициентами предварительного заполнения/декодирования, где традиционный агрегированный подход по-прежнему идеален. Мы ожидаем, что большинство клиентов захотят иметь доступ к обоим вариантам».

Одним из главных преимуществ WSE-3 является то, что он может передавать данные между своими логическими схемами и цепями памяти быстрее, чем многие другие чипы. По данным Cerebras, WSE-3 обеспечивает внутреннюю пропускную способность памяти в 21 Пбайт/с, что значительно превышает пропускную способность NVLink для ускорителей от NVIDIA. Впрочем, у NVIDIA теперь есть ускорители Groq, которые тоже помогают ускорить инференс.

Несколько недель назад Cerebras заключила с OpenAI сделку на $10 млрд по поставке чипов общей мощностью 750 МВт до 2028 года. Сделка была объявлена в период между двумя раундами финансирования, которые в совокупности принесли Cerebras более $2 млрд. Ожидается, что компания подаст заявку на IPO уже во II квартале 2026 года. Сделки с AWS и OpenAI могут способствовать повышению интереса инвесторов к листингу, отметил SiliconANGLE.

Постоянный URL: http://servernews.ru/1138316
13.03.2026 [15:42], Сергей Карасёв

Пропускная способность сети фильтрации Curator превысила 6 Тбит/с

Компания Curator, специализирующаяся на обеспечении доступности интернет-ресурсов и нейтрализации DDoS-атак, объявила об увеличении пропускной способности своей глобальной сети фильтрации. В результате модернизации инфраструктуры она превысила 6 Тбит/с, что позволяет эффективно противостоять растущему масштабу современных DDoS-атак и гарантировать устойчивость и постоянную доступность сервисов клиентов.

За последний год интенсивность DDoS-атак резко увеличилась. Если в 2024 году максимальная мощность атак в пике достигала 1,14 Тбит/с, то к концу 2025 года специалисты Curator фиксировали уже несколько атак интенсивностью более 3 Тбит/с.

В ответ на эту тенденцию компания провела масштабную работу по развитию своей инфраструктуры. В течение последних месяцев были расширены мощности сети, а также увеличено количество центров фильтрации и география присутствия системы.

 Источник изображения: unsplash.com / Julio Lopez

Источник изображения: unsplash.com / Julio Lopez

На данный момент сеть фильтрации Curator включает 9 собственных и 12 партнёрских центров очистки трафика. Центры фильтрации расположены в ключевых точках концентрации интернет-трафика и подключены к трансконтинентальным Tier-1 провайдерам, а также ведущим региональным магистральным интернет-провайдерам, что позволяет компании поддерживать самый высокий среди аналогов гарантированный уровень доступности приложений на уровне 99,95% и нивелировать любые сетевые атаки, достигшие в прошлом году рекордных уровней.

«Мы постоянно совершенствуем защиту, гарантируя клиентам устойчивость бизнеса даже при росте угроз. Если ещё недавно атаки свыше терабита считались исключением, то сегодня атаки в несколько Тбит/с уже становятся новой реальностью. Расширение пропускной способности сети Curator до более чем 6 Тбит/с — ответ на эту динамику и необходимый шаг для обеспечения стабильной работы сервисов наших клиентов. Мы действуем на опережение, ведь наша философия — непрерывная доступность», — комментирует Дмитрий Ткачев, генеральный директор Curator.

Постоянный URL: http://servernews.ru/1138255
12.03.2026 [15:42], Андрей Крупин

RuVDS запустил дата-центр в Антарктиде

Хостинг-провайдер RuVDS совместно с Университетом морской практики и арктического туризма и компанией «Стратонавтика» приступил к испытаниям возможностей экспериментального дата-центра, развёрнутого на российской антарктической станции Беллинсгаузен, расположенной на полуострове Файлдс юго-западной части субантарктического острова Кинг-Джордж (Ватерлоо).

Оборудование для ЦОД было доставлено на станцию в два этапа: сначала – самолётом из России в аргентинский город Ушайя, а затем — морским путём, через пролив Дрейка. Перечень устройств, доставленных на антарктическую станцию, включал в себя защищённое серверное оборудование, подобранное в том числе и с учётом сложностей морского перехода, а также приёмник сигнала с космического аппарата. Транспортировка была обеспечена при поддержке аэрокосмической лаборатории «Стратонавтика».

 География вычислительных площадок RuVDS (источник изображения: ruvds.com)

География вычислительных площадок RuVDS (источник изображения: ruvds.com)

Центр обработки данных реализован в рамках концепции минимального энергопотребления и влияния на окружающую среду Антарктиды. Вычислительный комплекс предназначен как для решения научных задач, так и для доступа обычных пользователей.

«Мы подходили к проекту подготовленными, уже имея за плечами опыт запуска ЦОД на Северном полюсе. Но с Антарктидой, конечно, всё было сложнее: сказывались и логистические трудности, и в целом большая масштабность проекта. Рассчитываем, что локация в Антарктиде прослужит несколько месяцев, после чего оборудование будет безвозмездно передано в пользование сотрудникам станции», — сообщил генеральный директор RuVDS.

Постоянный URL: http://servernews.ru/1138205
12.03.2026 [10:05], Руслан Авдеев

NVIDIA инвестирует в Nebius $2 млрд в рамках стратегического партнёрства в сфере ИИ ЦОД

NVIDIA объявила о намерении инвестировать $2 млрд в компанию Nebius Group в рамках стратегического партнёрства, предусматривающего разработку и строительство ИИ ЦОД, сообщает Bloomberg. В последние дни новости об очередных миллиардных инвестициях NVIDIA публикуются почти регулярно. В этот раз NVIDIA потратит средства на Nebius в рамках стратегического партнёрства — фактически компания нередко вкладывает средства в бизнесы, покупающие её ускорители.

Базирующаяся в Амстердаме Nebius к концу 2030 года намерена внедрить более 5 ГВт систем на решениях NVIDIA. Речь идёт о сотрудничестве, касающемся полного стека ИИ-технологий — от разработки архитектуры ИИ-фабрик до взаимодействия в сфере программного обеспечения. Это позволит Nebius ускорить строительство передовой облачной платформы.

Nebius активно внедряет технологии NVIDIA на глобальном уровне, включая строительство многочисленных ИИ-фабрик гигаваттного уровня в США. Чтобы Nebius смогла обеспечить более 5 ГВт к концу 2030 года, NVIDIA поддержит раннее внедрение компанией своих ИИ-ускорителей новейшего поколения.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В рамках партнёрства предусмотрено несколько векторов взаимодействия:

  • разработка и поддержка ИИ-фабрик, включая доступ к проектным материалам партнёров, ранним образцам оборудования и поддержке системного ПО, регулярные встречи по бизнес-вопросам и для обсуждения технических аспектов;
  • обеспечение лучшего в своём классе инференса и агентского ИИ-стека для разработчиков и корпоративных клиентов с использованием новейшего программного обеспечения NVIDIA, оптимизированных моделей и библиотек;
  • внедрение разных поколений инфраструктуры NVIDIA на платформе Nebius благодаря раннему внедрению архитектур NVIDIA, включая платформу NVIDIA Rubin, CPU Vera и DPU BlueField;
  • оптимизация парка оборудования Nebius с внедрением новейших систем мониторинга NVIDIA и учёт рекомендаций, касающихся программного обеспечения.

NVIDIA нередко использует свои, почти неисчерпаемые финансовые ресурсы для финансирования расширения ИИ-инфраструктуры на своих чипах. Это уже вызвало критику экспертов, допускающих, что такие циркулярные инвестиции способствуют возникновению пузыря на рынке ИИ. В январе 2026 года NVIDIA анонсировала вложение $2 млрд в конкурента Nebius — компанию CoreWeave для внедрения своих продуктов, а совсем недавно NVIDIA поддержала развёртывание 1 ГВт мощностей стартапом Thinking Machines Lab.

Неооблачный провайдер Nebius появился после раскола «Яндекса» и продажи его российской части бизнеса в 2024 году за $5,2 млрд российским покупателям. В конце того же года Nebius привлекла $700 млн от группы инвесторов, включавшей NVIDIA. По состоянию на конец 2024 года NVIDIA владела акциями компании на сумму $33 млн.

Совсем недавно IT-гигант выделил ещё $4 млрд на связанные с ИИ проекты. NVIDIA инвестировала по $2 млрд в поставщиков лазеров и фотоники для ИИ ЦОД — компании Lumentum и Coherent.

Постоянный URL: http://servernews.ru/1138176
11.03.2026 [11:20], Владимир Мироненко

Спрос на сетевые решения для ИИ обеспечил HPE один из самых прибыльных кварталов

Компания HPE объявила финансовые результаты за I квартал 2026 финансового года, закончившийся 31 января 2026 года. Показатели в основном превзошли ожидания аналитиков благодаря растущему спросу на сетевые решения для ИИ, отметил ресурс Datacenterknowledge.com.

Выручка компании выросла год к году на 18 % — до $9,30 млрд, что немного ниже консенсус-прогноза аналитиков, опрошенных LSEG, в размере $9,33 млрд (по данным Reuters). Скорректированная прибыль (non-GAAP) на разводнённую акцию в размере $0,65 превысила прогноз Уолл-стрит в $0,59. Чистая прибыль (GAAP) составила $423 млн и $0,31 на разводнённую акцию, что ниже показателей годом ранее — $598 млн и $0,44, но выше собственного прогноза компании.

 Источник изображений: HPE

Источник изображений: HPE

Антонио Нери (Antonio Neri), президент и генеральный директор HPE, заявил, что это был один из самых прибыльных кварталов за всю историю компании. «Высокий спрос, разумное управление затратами и более быстрая, чем планировалось, синергия Juniper и Catalyst способствовали нашим результатам», — сообщила финансовый директор Мари Майерс (Marie Myers).

Выручка нового сегмента HPE «Облачные технологии и ИИ», объединяющего бизнес HPE в области серверов, хранения данных и финансовых услуг, составила $6,3 млрд, что на 2,7 % меньше, чем за аналогичный период прошлого года, при этом маржа операционной прибыли составила 10,2 % против 8,4 % годом ранее. В том числе выручка от продаж серверов составила $4,2 млрд (снижение год к году на 2,7 %), продажи СХД — $1,1 млрд (рост на 0,6 %), выручка от финансовых услуг — $0,9 млрд (рост на 0,3 %).

Выручка сегмента «Сетевое оборудование», который включает бывший сегмент «Интеллектуальная периферия» и Juniper Networks, составила $2,7 млрд, что на 151,5 % больше, чем за аналогичный период прошлого года. В том числе выручка от кампусных и филиальных сетей (Campus & Branch) достигла $1,2 млрд (рост на 42 % год к году). Продажи сетевого оборудования для ЦОД принесли $444 млн (рост на 382,6 %) благодаря увеличению спроса на высокопроизводительные сети, используемые в ИИ-кластерах.

Продукты безопасности принесли $255 млн выручки, что на 114 % больше год к году, а направление маршрутизации — $780 млн по сравнению с $1 млн в аналогичном периоде прошлого года, что отражает добавление портфеля маршрутизации Juniper. Операционная маржа сегмента составила 23,7 %, что ниже, чем в прошлом году (29,7 %), в основном из-за затрат на интеграцию и изменений в ассортименте продукции.

Выручка от корпоративных инвестиций и прочих услуг составила $261 млн, что на 2,2 % меньше, чем за аналогичный период прошлого года, при этом маржа операционной прибыли составила −4,6 % по сравнению с −3,0 % годом ранее. В этот сегмент входят консультационные и профессиональные услуги, а также результаты деятельности лаборатории Hewlett Packard. В него также в 2026 финансовом году были включены телекоммуникационный бизнес и Instant On.

HPE сообщила, что её портфель заказов на ИИ-решения превысил $5 млрд, при этом на корпоративных и государственных клиентов приходится 64 % от общего объёма заказов.

В текущем финансовом квартале компания ожидает, что квартальная выручка составит от $9,6 до $10,0 млрд, что выше средней оценки аналитиков, опрошенных LSEG, в $9,58 млрд.

HPE повысила свой прогноз по скорректированной прибыли на акцию (non-GAAP) на 2026 финансовый год до $2,30–$2,50 по сравнению с предыдущим прогнозом в $2,25–$2,45. Также компания повысила прогноз по годовому росту выручки в сегменте сетевого оборудования до 68–73 %.

Акции компании выросли примерно на 1,3 % на дополнительных торгах после публикации финансовых результатов. Вместе с тем с начала года акции HPE упали примерно на 9 %, в то время как у конкурента, компании Dell, был зафиксирован рост на 16,4 %.

Постоянный URL: http://servernews.ru/1138110
10.03.2026 [17:10], Руслан Авдеев

KKR задумала продать производителя СЖО CoolIT почти в 10 раз дороже, чем покупала

Американский инвестиционный гигант KKR рассчитывает хорошо заработать на продаже одной из именитых IT-компаний, работающей на рынке систем охлаждения с 2001 года. Бум ИИ привёл к тому, что оценочная стоимость компании CoolIT Systems выросла в несколько раз, сообщает The Financial Times.

По данным знакомых с ситуацией источников, KKR и её консультанты работают над продажей компании за $3 млрд. CoolIT, переориентировавшаяся с выпуска систем охлаждения для игровых ПК на СЖО для дата-центров, в 2023 году, на момент покупки KKR контрольного пакета, стоила всего $270 млн. Миноритарной долей владеет суверенный государственный инвестор Mubadala из ОАЭ.

По информации источников, пока обсуждение продажи CoolIT находится на ранней стадии и гарантии того, что сделка вообще состоится, отсутствуют. Тем не менее, несколько компаний уже выбраны в качестве потенциальных «стратегических» покупателей. По данным Datacenter Dynamics, ранее CoolIT привлекла около $10 млн в ходе четырёх раундов финансирования. В числе предыдущих инвесторов: Business Development Bank of Canada, nVent, Kline Hill Partners, Vistara Capital Partners, Inovia Partners, AVAC Group и Chart Venture Partners.

 Источник изображения: CoolIT Systems

Источник изображения: CoolIT Systems

Масштабная эволюция инфраструктуры ЦОД и развитие ИИ-технологий стали импульсом к росту сделок, напрямую не связанных с компаниями технологического сектора. В частности, речь идёт об энергетике и промышленных сделках с участием поставщиков для ИИ-инфраструктуры. Как свидетельствуют данные НКО American Edge Project, в США уже строятся или планируются к строительству около 3 тыс. дата-центров, не считая 4 тыс. уже действующих площадок. Это неизбежно увеличивает потенциальный спрос на оборудование и сервисы CoolIT. Тем не менее, инвесторы начинают ставить под сомнение окупаемость многих инвестиций крупных компаний в новые дата-центры.

В 2025 году производственная компания Eaton заплатила $9,5 млрд за связанный с теплообменными решениями бизнес Boyd Corporation. Предполагается, что это позволит расширить портфолио решений для ЦОД. Купленный бизнес, вероятно, уже в 2026 году принесёт около $1,7 млрд выручки, причём большая её часть приходится на СЖО-решения. Конкурент Vertiv также купил компанию PurgeRite сходного профиля в том же году, заплатив около $1 млрд.

На днях частные инвестиционные компании Global Infrastructure Partners (GIP, принадлежит BlackRock) и EQT заключили сделку на $33 млрд, организовав покупку энергокомпании AES Corporation. В своё распоряжение они получили бизнес, генерирующий возобновляемую энергию в огромных объёмах для дата-центров.

В последние годы эксперты называют KKR одним из самых агрессивных частных инвесторов, скупающих ЦОД. В 2021 году совместно с GIP она приобрела американского оператора ЦОД CyrusOne. Сделка обошлась в $15 млрд, включая долг.

Постоянный URL: http://servernews.ru/1138059
10.03.2026 [12:58], Сергей Карасёв

Jetway выпустила индустриальную плату ATX-ARS1-W880 на базе Intel Arrow Lake-S

Компания Jetway анонсировала индустриальную материнскую плату ATX-ARS1-W880, предназначенную для платформ автоматизации, робототехнических комплексов и пр. Новинка рассчитана на эксплуатацию в температурном диапазоне от -20 до +60 °С.

Изделие выполнено в форм-факторе АТХ с размерами 305 × 244 мм. Применён набор логики Intel W880: возможна установка процессоров семейства Arrow Lake-S в исполнении LGA1851 с показателем TDP до 125 Вт. Доступны четыре слота CU-DIMM (Clocked Unbuffered DIMM) с поддержкой до 256 Гбайт памяти DDR5-6400.

Плата располагает четырьмя портами SATA-3 для накопителей с возможностью формирования массивов RAID 0/1/5/10. Кроме того, имеются коннекторы М.2 M-Key 2242/2260/2280/22110 (PCIe 5.0 x4) и М.2 M-key 2280 (PCIe 4.0 x4) для NVMe SSD. В арсенале новинки — сетевой порт 2.5GbE RJ45 на основе контроллера Intel I226-LM и два порта 2.5GbE RJ45 на базе Intel I226-V. Реализованы слот M.2 E-Key 2230 (USB 2.0/PCIe 3.0 x1; CNVio) для комбинированного адаптера Wi-Fi / Bluetooth и разъём M.2 B-Key 3042/3052 (USB3.1/USB2.0/PCIe 3.0 x1 плюс NanoSIM) для сотового модема 4G/5G.

 Источник изображения: Jetway

Источник изображения: Jetway

Возможен вывод изображения одновременно на четыре независимых монитора через интерфейс DP1.4a (до 4096 × 2160; 60 Гц), два выхода HDMI 2.1 (до 3840 × 2160; 60 Гц) и аналоговый коннектор D-Sub (1920 × 1080; 60 Гц). Доступны шесть портов USB 3.1 Type-A (10 Гбит/с), последовательный порт RS-232/422/485 и набор аудиогнёзд на 3,5 мм. Через разъёмы на самой плате могут быть задействованы два порта USB 3.0 (5 Гбит/с), шесть портов USB 2.0, а также пять портов RS-232. Плата получила по два слота PCIe 5.0 x16 (1 × PCIe 5.0 ×16 или 2 × PCIe 5.0 x8) и PCIe 4.0 x4, а также три слота PCIe 4.0 x1. Есть два коннектора для вентиляторов охлаждения. Опционально может быть добавлен модуль TPM 2.0 (dTPM) для обеспечения безопасности. Заявлена совместимость с Windows 11 и Linux.

Постоянный URL: http://servernews.ru/1138037
07.03.2026 [22:20], Сергей Карасёв

640 Кбайт хватит для ИИ: микроконтроллеры STM32U3B5/C5 со сверхнизким энергопотреблением могут работать даже без батарей

STMicroelectronics анонсировала микроконтроллеры STM32U3B5 и STM32U3C5, ориентированные на автономные устройства с функциями ИИ и машинного обучения. Изделия отличаются сверхнизким энергопотреблением и возможностью перехода в режим глубокого сна при отсутствии данных. Таким образом, допускается работа без батарей — исключительно за счёт преобразования энергии окружающей среды (свет, тепло, вибрации, радиоволны) в электрическую.

Микроконтроллеры используют 32-бит ядро Arm Cortex-M33 с частотой 96 МГц. Заявленная производительность достигает 1,5 DMIPS/МГц (Dhrystone 2.1) и 395,4 CoreMark (4,12 CoreMark/МГц). В оснащение входит HSP (Hardware Signal Processor) — специальный блок, предназначенный для ускорения определенных вычислений, связанных с ИИ. Есть 640 Кбайт SRAM и 2 Мбайт флеш-памяти. Предусмотрены интерфейсы SDMMC и OCTOSPI с поддержкой внешней памяти SRAM, PSRAM, NOR, NAND и FRAM.

 Источник изображения: STMicroelectronics

Источник изображения: STMicroelectronics

Реализована поддержка 114 × GPIO, USB 2.0, SAI (Serial Audio Interface), 4 × I2C FM+, SMBus/PMBus, 3 × I3C (SDR), 3 × USART и 2 × UART (SPI, ISO 7816, LIN, IrDA, Modem), 1 × LPUART, 4 × SPI, 2 × CAN FD, GPDMA (12 каналов), 2 × 12-bit ADC, 12-bit DAC и др. Возможны различные варианты исполнения, в том числе UFQFPN48 (7 × 7 мм), LQFP48  (7 × 7 мм), LQFP64 (10 × 10 мм), WLCSP72  (3,67 × 3,58 мм), WLCSP99 (3,67 × 3,58 мм), LQFP100 (14 × 14 мм), WLCSP126 (3,67 × 3,58 мм), UFBGA132 (7 × 7 мм) и LQFP144 (20 × 20 мм). Диапазон рабочих температур простирается от -40 до +105 °C.

В микроконтроллеры встроены развитые средства безопасности, включая Arm TrustZone, генератор случайных чисел TRNG, защиту от несанкционированного доступа и пр. Единственное различие между решениями STM32U3B5 и STM32U3C5 заключается в том, что второе включает криптографическое ядро для ускорения операций шифрования и дешифрования. Цена варьируется от $2,9298 до $4,6829 за штуку в зависимости от конфигурации при заказах партий от 10 тыс. единиц.

Постоянный URL: http://servernews.ru/1137935
06.03.2026 [11:22], Сергей Карасёв

QNAP представила сетевое хранилище TS-h1077AFU типа All-Flash на базе AMD Ryzen PRO 7000

Компания QNAP Systems анонсировала NAS-систему TS-h1077AFU типа All-Flash, рассчитанную на монтаж в стойку. Устройство выполнено в форм-факторе 1U с применением аппаратной платформы AMD, а в качестве ОС используется QuTS hero h5.2.8 с файловой системой ZFS.

Новинка несёт на борту процессор Ryzen 7 7000 с восемью ядрами (16 потоков; до 5,3 ГГц) и ускорителем AMD Radeon Graphics. Объём оперативной памяти DDR5 с поддержкой ECC в стандартной конфигурации составляет 32 Гбайт, в максимальной — 192 Гбайт (4 × 48 Гбайт UDIMM). В оснащение входят 5 Гбайт встроенной флеш-памяти для ОС.

Во фронтальной части расположены 10 отсеков для SSD типоразмера SFF с интерфейсом SATA-3; допускается горячая замена. Суммарная внутренняя вместимость может достигать 153 Тбайт при использовании SSD ёмкостью 15,36 Тбайт. Возможно подсоединение до четырёх модулей расширения TL-R2400PES-RP на 24 накопителя каждый, что позволяет формировать хранилища петабайтного класса.

 Источник изображения: QNAP Systems

Источник изображения: QNAP Systems

Устройство располагает двумя сетевыми портами 2.5GbE и двумя портами 10GbE. Есть два слота PCIe 4.0 х8, в которые могут быть установлены дополнительные сетевые адаптеры (например, 25GbE) или карты с поддержкой M.2 SSD. Есть два порта USB 3.2 Gen2 Type-A (10 Гбит/с). Питание обеспечивают два блока мощностью 350 Вт. Габариты составляют 44 × 430 × 582 мм, масса — 9,43 кг. Диапазон рабочих температур — от 0 до +40 °C. На хранилище предоставляется пятилетняя гарантия. Производитель обещает рыночную доступность модели TS-h1077AFU как минимум до 2030 года.

Постоянный URL: http://servernews.ru/1137873