Материалы по тегу:
|
13.04.2026 [13:38], Сергей Карасёв
Хранилище Backblaze Storage Pod стал экспонатом Музея компьютерной историиАмериканская компания Backblaze, специализирующаяся на облачном хранении данных и резервном копировании, сообщила о том, что её оригинальная платформа Storage Pod 1.0 стала экспонатом Музея компьютерной истории (Computer History Museum) в Маунтин-Вью (Калифорния, США). Backblaze начала работу в 2007 году. Целью проекта было предоставление неограниченного облачного хранилища для резервных копий за $5/мес. Для снижения стоимости услуг вместо дорогих корпоративных накопителей применялись самые обычные HDD. При этом Backblaze опубликовала спецификации своего оборудования, что позволило другим компаниям и энтузиастам создавать аналогичные серверы. Backblaze отмечает, что частично благодаря её разработкам и открытому подходу к архитектуре СХД появились такие проекты, как Open Compute Project (2011 год) и Netflix Open Connect (2012 год). Вместе с тем фирма Protocase, которая занималась гибкой листового металла и изготовлением деталей для оригинального Storage Pod, на фоне роста спроса на такие услуги создала новую компанию 45Drives. В офисе Backblaze ранее действовал собственный музей оборудования, в котором были представлены системы Storage Pod в различных модификациях, созданных в процессе эволюции платформы. Однако в середине января Backblaze полностью перешла на удалённую работу, поэтому было предложено разместить оригинальную модель Storage Pod в Музее компьютерной истории. Даг Спайсер (Dag Spicer), старший куратор Музея компьютерной истории, говорит, что появление первого продукта Backblaze — системы Storage Pod 1.0 — стало переломным моментом для отрасли облачного хранения. Компания бросила вызов существовавшим тогда проприетарным техническим платформам, снизив стоимость благодаря использованию стандартных компонентов и собственного ПО. «Backblaze поделилась своими разработками со всем миром, положив начало революции в области "открытого оборудования". Компания доказала, что высокоплотные корпоративные хранилища можно создавать при существенно меньших финансовых затратах, нежели чем при использовании традиционных подходов. Для нас большая честь сохранить оригинальный экземпляр Storage Pod», — подчёркивает Спайсер.
13.04.2026 [13:05], Сергей Карасёв
Aria Networks представила «думающую» сетевую платформу Deep Networking для высокоэффективных ИИ-инфраструктурКомпания Aria Networks анонсировала сетевую платформу Deep Networking, призванную повысить эффективность работы ИИ-систем. Предложенное решение объединяет специализированное коммутационное оборудование, сетевую ОС SONiC, высокоточную телеметрию на коммутаторах, трансиверах и сетевых картах, а также ИИ-алгоритмы на разных уровнях вычислительной инфраструктуры. Стартап Aria Networks основан в январе 2025 года Мансуром Карамом (Mansour Karam), учредителем фирмы Apstra, которую в 2019-м приобрёл американский производитель сетевого оборудования Juniper Networks. Aria Networks занимается разработкой высокопроизводительных решений, сочетающих возможности стандартного Ethernet со специализированным ПО для управления большим количеством модульных коммутаторов как единой системой. На сегодняшний день стартап привлёк в общей сложности $125 млн инвестиций от Sutter Hill Ventures, Atreides Management, Valor Equity Partners и Eclipse Ventures. Идея Deep Networking заключается в том, чтобы рассматривать сеть в качестве активного участника кластера ИИ, а не в роли пассивного слоя. Это достигается путём сбора детальной телеметрии с коммутационных ASIC, внедрения интеллектуальных агентов на каждом уровне и постоянного распространения обновлений ПО через облако. В качестве ключевых показателей быстродействия Aria Networks рассматривает MFU (уровень утилизации оборудования при обучении) и Token Efficiency (эффективность токенов). Первый параметр отражает, какой процент от теоретической максимальной производительности ИИ-ускорителя (пиковых FLOPS) реально тратится на полезные вычисления для обучения или инференса. В свою очередь, эффективность токенов показывает, уровень MFU или время на обработку одного токена. Основное техническое преимущество Deep Networking заключается в получении детализированной телеметрии. Традиционные инструменты мониторинга сети собирают данные постфактум — с относительно невысокой точностью. Решение Aria Networks обрабатывает телеметрию в реальном времени непосредственно с ASIC. Благодаря этому обеспечивается адаптивная настройка параметров DLB (динамическая балансировка нагрузки) и DCQCN (механизм управления перегрузками). Сама платформа Deep Networking имеет многоуровневую архитектуру. На самых нижних уровнях ИИ-агенты в течение микросекунд реагируют на такие события, как сбои в работе трансиверов, перенаправляя трафик между коммутаторами. На более высоких уровнях принимаются стратегические решения о перераспределении потоков в кластере. Кроме того, внешние системы, например, планировщики заданий и маршрутизаторы, могут напрямую запрашивать сведения о состояние сети и интегрировать их в процесс принятия собственных решений. С аппаратной точки зрения инфраструктура Deep Networking базируется на коммутаторах Aria Switch 800G, Aria Switch 1.6T High Radix и Aria Switch 1.6T, оснащённых чипами Broadcom. Платформа непрерывно настраивает каждый аспект сетевой инфраструктуры для конкретного обслуживаемого ИИ-кластера без ручного вмешательства, что сводит к минимуму задержки и устраняет ошибки, обусловленные человеческим фактором. Администраторам достаточно указать свои потребности, после чего платформа соответствующим образом оптимизирует сеть. При этом система постоянно оценивает состояние сети и в режиме реального времени принимает меры для обеспечения наилучшей производительности и бесперебойной работы. Aria Networks утверждает, что один неисправный сетевой адаптер в кластере из 10 тыс. XPU может снизить показатель MFU на 1,7 %. А сбой трансивера способен спровоцировать некорректную переадресацию трафика, что приведёт к существенным финансовым потерям. Архитектура Deep Networking позволяет эффективно решать подобные проблемы, одновременно улучшая производительность. Так, повышение MFU на 3 % в кластере из 10 тыс. XPU, по оценкам стартапа, приводит к увеличению годовой выручки на $49,8 млн.
13.04.2026 [10:12], Руслан Авдеев
Red Hat уволила сотни программистов в Китае, чтобы перенести разработку в ИндиюПохоже, Red Hat полностью ликвидировала команду разработки в Китае, не считая более страну приоритетной для своего бизнеса. Большая часть разработчиков теперь будет в Индии, сообщает The Register. Ранее в Сети появились слухи о роспуске китайского подразделения Red Hat, а после появился пост от имени старшего разработчика (principal software engineer) Red Hat China, который в минувший четверг лишился доступа к корпоративной сети, а через некоторое время получил уведомление от руководства о том, что компания смещает фокус на центры разработки в Азиатско-Тихоокеанском регионе (APAC). Китайские СМИ сообщают о 300–500 уволенных, а также о служебной записке, разосланной техническим директором компании Крисом Райтом (Chris Wright). Согласно утекшему в Сеть документу, Red Hat подготовила «стратегию размещения», в соответствии с которой определены «ключевые места для приоритетного найма и стратегических инвестиций в кадры». Судя по всему, в Red Hat решили, что Индия является ключевой локацией для размещения сотрудников, а Китай — не является, поэтому и компания прекратит разработки в Поднебесной, перенеся большую часть рабочих мест в Индию. В записке Райта сообщается, что уход из Китая не приведёт к чистому сокращению числа сотрудников. Также подчёркивается, что об изменениях публично объявлено не будет, поэтому официальных комментариев ждать не стоит. IBM, которой принадлежит Red Hat, заявляет, что в Индии у компании больше сотрудников, чем в США, всего около 264 тыс. человек. Ранее IBM полностью перенесла разработку ОС AIX в Индию. Стоит отметить, что присутствие в Китае сократила не только Red Hat. Так, Microsoft покинула КНР в 2025 году после того, как выяснилось, что многие разработчики, работавшие над внедрением Azure в Пентагоне, годами работали с территории Китая. Военное ведомство заявило, что из-за Microsoft подверглось «неприемлемому риску». Red Hat так же многие годы плотно сотрудничает с различными военными структурами США, в 2024 году она заключила договор на $848 млн в рамках реализуемой Пентагоном Enterprise Software Initiative. Возможно, компания намерена продемонстрировать приверженность обеспечению национальной безопасности США, чтобы избежать возможных проблем в будущем. Хотя Китай является гигантским рынком ПО и IT-технологий в целом, его власти всё чаще рекомендуют участникам инвестировать в местные разработки. Поскольку значительная часть кода Red Hat относится к open source, китайские структуры от ухода компании не особенно пострадают, тем более что Red Hat не собирается прекращать продажи коммерческих продуктов в стране. Некоторые проблемы может испытать сама Red Hat, поскольку в Китае немало талантливых программистов. Тем не менее, как отмечает The Register, это в некоторой степени нивелируется тем, что в стране уникально нормативно-правовая база и правила, в частности предписывающие крупным компаниям нанимать представителей КПК.
13.04.2026 [09:23], Руслан Авдеев
Не рассчитали: переход вузов Миннесоты на Workday обошёлся вдвое дороже планируемого и привёл к ошибкам в начислении зарплатВнедрение платформы управления персоналом и финансами Workday в системе университетов и колледжей Миннесоты MnSCU (Minnesota State Colleges and Universities) вместо упрощения работы привело лишь к проблемам, сообщает The Register. Выборочный аудит выявил ошибки в расчёте заработной платы преподавателям и другим сотрудникам, а также задержки с выплатами. MnSCU объединяет 54 кампуса, 270 тыс. студентов, 14,2 тыс. преподавателей и других сотрудников. В 2019 году начался процесс закупки ПО для замены устаревшей ERP-системы Integrated Statewide Record System (ISRS). Новое ПО объединяет модули учёта финансов, расчёта зарплат, управления кадрами и студентами. На практике стало ясно, что использовать единую систему для всех задач, похоже, не удастся. По словам аудиторов OLA, в MnSCU знали о проблемах с начислением заработной платы ещё до внедрения платформы Workday, но после её внедрения проблемы усугубились. Сейчас образовательная система штата вынужденно используют комбинацию Workday, устаревшей бухгалтерской системы для начисления зарплат и HR-платформу SEMA4. Согласно отчёту Office of the Legislative Auditor (OLA), выборочная проверка данных о 202 преподавателях и сотрудниках показала, что 19 из них неверно начислена зарплата. После дополнительной проверки выявлено ещё 38 пострадавших преподавателей. Попутно были выявлены и задержки с выплатами. Первоначально бюджет программы перехода на новое ПО составлял $151,1 млн. После заключения контракта с Workday в 2020 году он до $242,7 млн. Планировалось, что системы управления персоналом и начисления заработной платы заработают в июле 2023 года, а «студенческая» составляющая — осенью 2026 года. К ноябрю 2024 года бюджет проекта вырос до $290,4 млн, а сроки реализации обеих подсистем сдвинулись на июль 2024 года и осень 2029 года соответственно. С трудностями при реализации проектов Workday столкнулись и другие. Так, в 2024 году Айова расторгла договор на поставку финансового ПО Workday из-за «проблем в реализацией». В 2021 году Мэн обвинил Workday в безответственности при неудачной замене HR-системы стоимостью $54,6 млн. Теперь штат использует гибрид системы Workday со сторонним ПО. В Вашингтонском университете проект перехода на Workday растянулся на семь лет и обошёлся в $266 млн, что вызвало массовые протесты студентов, на плечи которых фактически легла повышенная финансовая нагрузка. Workday в комментарии The Register отметила, что сотрудничала с «сотнями учреждений по всему миру» для внедрения своих облачных сервисов. Как и любой крупный технологический проект, переход от устаревших систем к современным централизованным решениям — сложный процесс. В подобных долгосрочных проектах в ходе внедрения часто изменяется объём работ, что может повлиять на стоимость и сроки. Кроме того, решение непредвиденных задач в проектах подобного масштаба — обычное дело. В декабре 2024 года Workday заявила, что более 90 % внедрений решений компании проходят успешно, а с учётом масштаба внедрений статистика для отрасли просто «беспрецедентная». Между тем цена ошибок хорошо известна в Великобритании. Внедрение ERP-системы Oracle в течение многих лет фактически превратило в банкрота Бирмингем, раздув бюджет проекта до неприличных значений в сотни миллионов фунтов — запуск системы всё ещё откладывается. Кроме того, Почта Великобритании и Fujitsu перекладывают друг на друга вину за провальное внедрение ПО Horizon, в результате сбоев в котором пострадали сотни людей, а некоторые из них даже понесли уголовную ответственность.
12.04.2026 [17:47], Сергей Карасёв
Бизнес-компьютеры MSI Cubi NUC TWG с активным и пассивным охлаждением выполнены в 0,55-литровом корпусеКомпания MSI представила компьютеры небольшого форм-фактора Cubi NUC TWG, рассчитанные на использование в бизнес-сфере и коммерческом секторе. Устройства выполнены на аппаратной платформе Intel Twin Lake: покупателям будут предлагаться модификации с активным и пассивным (версия Cubi NUC TWG S) охлаждением. Новинки заключены в корпус объёмом всего 0,55 л с габаритами 135,6 × 112,6 × 40,1 мм. Предусмотрены конфигурации с чипом Intel Processor N150 (четыре ядра; до 3,6 ГГц; 6 Вт) и Intel Processor N250 (четыре ядра; до 3,8 ГГц; 6 Вт). Обе оборудованы одним слотом SO-DIMM для модуля оперативной памяти DDR5-4800 и одним коннектором M.2 2280 для SSD с интерфейсом PCIe 3.0 x4.
Источник изображений: MSI В оснащение входят сетевые контроллеры 1 GbE (Realtek RTL8111H) и 2.5GbE (Realtek RTL8125D), а также адаптер Intel WiFi 6E AX211 (плюс Bluetooth 5.3) или AzureWave AW-CB515NF Wi-Fi 5 (плюс Bluetooth 5.0). Питание обеспечивает внешний блок мощностью 65 Вт. Допускается монтаж посредством крепления VESA на стену или заднюю панель монитора. ![]() Во фронтальной части Cubi NUC TWG расположены по два порта USB 3.1 Type-A и USB 2.0 Type-A, а также комбинированное аудиогнездо на 3,5 мм. Сзади находятся разъём USB 3.1 Type-C (DP 1.4 Alt. mode), два порта USB 2.0 Type-A, два гнезда RJ45 для сетевых кабелей, два интерфейса HDMI 2.1 с возможностью вывода изображения в формате 4K@60 и DC-гнездо. Устройства будут предлагаться в белом и чёрном вариантах цветового исполнения. Поддерживается технология MSI Power Link, которая позволяет включать мини-компьютер с помощью кнопки питания монитора: это особенно полезно в тех случаях, когда система закреплена на задней панели дисплея и дотянуться до её собственной кнопки питания непросто.
12.04.2026 [17:39], Сергей Карасёв
AAEON представила промышленную рабочую станцию Boxer-6845-BTL с поддержкой ускорителя NVIDIA BlackwellКомпания AAEON представила рабочую станцию небольшого форм-фактора Boxer-6845-BTL, построенную на аппаратной платформе Intel Bartlett Lake (Core Series 2). Новинка подходит для задач ИИ-инференса на периферии, машинного зрения, робототехнических приложений и пр. Устройство выполнено в корпусе с габаритами 150 × 270 × 225 мм, а масса составляет 6,5 кг. Максимальная конфигурация предполагает установку процессора Core 7 251E, который содержит 24 вычислительных ядра (8Р+16Е/32T) с максимальной тактовой частотой 5,6 ГГц. В состав чипа входит графический ускоритель Intel UHD Graphics 730. Предусмотрены два слота SO-DIMM для модулей оперативной памяти DDR5 суммарным объёмом 64 Гбайт. Рабочая станция оснащена райзером в двух конфигурациях — A1 и A2. В первом варианте доступны по одному слоту PCIe x16 и PCIe x4, что позволяет установить дискретный GPU для ИИ-нагрузок, в частности, NVIDIA RTX PRO 4000 Blackwell SFF Edition. В версии A2 можно использовать по одному разъёму PCIe x4 и PCI для контроллеров движения, плат видеозахвата и промышленных коммуникационных модулей. Компьютер располагает двумя посадочными местами для SFF-накопителей с интерфейсом SATA и двумя коннекторами M.2 2280 M-Key для SSD (NVMe); возможно формирование массивов RAID 0/1. Для адаптеров беспроводной связи и сотовых модемов доступны слоты M.2 2230 E-Key (Wi-Fi), M.2 3052 B-Key (4G/5G; Nano-SIM с фронтальным доступом) и M.2 3052 B-Key (PCIe x1 + USB 3.0). Имеется трёхпортовый сетевой контроллер 1GbE. Станция получила по два порта USB 3.1 Type-A и USB 2.0 Type-A, два последовательных порта (RS-232/422/485), коннектор DB-15, аудиогнёзда на 3,5 мм, три разъёма RJ45 для сетевых кабелей, а также два интерфейса HDMI. Питание (12–24 В) подаётся через 4-контактный DC-разъём. Диапазон рабочих температур простирается от -20 до +45 °C. Возможен монтаж на стену. Заявлена совместимость с Windows 10 IoT 2021 LTSC, Windows 11 IoT LTSC и Ubuntu 24.04.
11.04.2026 [23:18], Владимир Мироненко
Глава Amazon допустил продажу собственных чипов сторонним заказчикамНа этой неделе генеральный директор Amazon Энди Джасси (Andy Jassy) опубликовал ежегодное послание акционерам, в котором отметил высокий спрос на чипы собственной разработки. Если бы компания выделила их производство в отдельный бизнес с продажей чипов как самой AWS, так и сторонним клиентам, то его годовой оборот мог бы составить $50 млрд. Он допустил, что в будущем компания будет продавать их целыми партиями. Джасси также сообщил, что два крупных клиента AWS обратились с просьбой выкупить всю мощность инстансов на Graviton на 2026 год, но компания отклонила эти запросы, и уточнил, что расчётная годовая выручка (Revenue Run Rate, RRR) Amazon на собственных чипах (Graviton, Trainiu, Nitro) составляет $20 млрд. По словам Джасси, 98 % из 1000 крупнейших клиентов EC2 используют чипы Graviton, а мощности ускорителей Trainium2 и Trainium3 «почти полностью зарезервированы». Также уже зарезервирована значительная часть мощностей на базе Trainium4, до массовой доступности которого ещё около 18 мес. Согласно прогнозу Джасси, Trainium сэкономит компании «десятки миллиардов долларов капитальных затрат в год и обеспечит преимущество в несколько сотен базисных пунктов операционной прибыли по сравнению с использованием чипов других компаний для выполнения вычислений». Он также отметил, что, хотя расчётный годовой доход AWS в IV квартале 2025 года составил $142 млрд, 85 % глобальных ИТ-затрат по-прежнему приходится на решения on-premise. «Это изменится», — заявил Джасси. Спустя три года после начала волны развёртывания ИИ, годовой доход AWS (Revenue Run Rate, RRR) от ИИ в I квартале 2026 года превысил $15 млрд и продолжает расти. «И все же у нас по-прежнему есть ограничения по мощности, которые приводят к неудовлетворенному спросу», — говорит гендиректор Amazon. Он сообщил, что AWS будет расти ещё быстрее, если будет обеспечен большим объёмом электроэнергии. В 2025 году AWS получила 3,9 ГВт новых мощностей и намерена удвоить общую подведённую мощность к концу 2027 года. AWS запустила один из крупнейших в мире ИИ-кластеров с около 500 тыс. чипов Trainium2, который будет использоваться ИИ-стартапом Anthropic. А первым из технологических гигантов разрешил использовать собственные чипы вне его инфраструктуры стала Google, благодаря чему Anthropic приобретёт около 1 млн Google TPU v7 (Ironwood) для запуска на контролируемых ею объектах (в Fluidstack). Примерно 400 тыс. чипов компания получит напрямую от Broadcom в составе стоечных систем.
11.04.2026 [20:56], Владимир Мироненко
К 20-летию облака AWS в Amazon S3 появился файловый доступAWS представила новый сервис Amazon S3 Files, который «напрямую соединяет любые вычислительные ресурсы AWS с вашими данными в Amazon S3». Компания отметила, что благодаря новому сервису «Amazon S3 становится первым и единственным облачным объектным хранилищем, обеспечивающим полнофункциональный высокопроизводительный файловый доступ к вашим данным». Хранилище обеспечивает полную семантику ФС (NFS 4.1+) и низкую задержку, при этом ваши данные никогда не покидают S3, подчеркнула компания. Новая функция появилась через 20 лет после запуска облака AWS — именно S3-хранилище стало первым публичным облачным сервисом. Он заработал в марте 2006 года. Объектные хранилища традиционно не используются в HPC-задачах, поскольку обычно требуется POSIX-доступ на чтение и запись отдельных файлов, а не изменение целых объектов и семантика GET/PUT/DELTE. Amazon S3 отдаёт приоритет надёжности и низкой стоимости, в то время как HPC-нагрузкам обычно необходим очень быстрый доступ с низкой задержкой, а цена и надёжность являются второстепенными факторами, пишет HPCwire. S3 Files на базе EFS обеспечивает семантику ФС, такую как согласованность данных при чтении после записи, блокировка файлов и права POSIX в сочетании с масштабируемостью, надёжностью и экономичностью S3. S3 Files уже доступен в 34 регионах AWS. S3 Files интеллектуально преобразует ФС-операции в эффективные S3-запросы. Файловые приложения работают с данными S3 без изменений в коде, ИИ-агенты сохраняют данные и совместно используют их в разных конвейерах, а инструменты и приложения могут работать с файлами в S3 напрямую из любого инстанса, контейнера и функции. S3 Files использует многоуровневое кеширование данных (и метаданных) для снижения задержки доступа (менее 1 мс) и обеспечивает совокупную пропускную способность чтения до нескольких Тбайт/с. Размер файла по умолчанию для автоматического чтения из традиционного S3 составляет 125 Кбайт. Файлы меньшего размера могут оказаться в высокопроизводительном хранилище и стать доступными через NFS, если служба хранения сочтёт это необходимым; пользователи могут изменить этот параметр. Хотя, возможно, S3 Files, не будет таким же быстрым, как Lustre (который также предлагает AWS), это всё равно довольно быстрый файловый доступ. Поставщики файловых хранилищ, такие как NetApp и Qumulo, уже предоставляют комбинированные сервисы файлового и объектного хранения в AWS. Теперь они столкнутся с усилением конкуренции, отметил ресурс Blocks & Files. Например, есть Amazon FSx for NetApp ONTAP, Dell PowerScale for AWS, VAST AI OS и Cloud Native Qumulo (CNQ). Так, CNQ тоже предлагает более 1 Тбайт/с и 1 млн IOPS при использовании стандартных клиентов NFS. Аналитики рассматривают нововведение как стратегический шаг AWS по позиционированию S3 как основного слоя хранения данных для ИИ-агентов и современных приложений, выходящий за рамки традиционного использования ИИ в озерах данных и пакетной аналитике, пишет InfoWorld. Ранее предприятиям, разрабатывающим и развёртывающим агентные системы и другие современные ИИ-приложения, обычно приходилось либо формировать отдельную СХД с файловым доступом, либо создавать слой трансляции для работы с S3-хранилищем, отмечает Pareekh Consulting. S3 Files упростит архитектуру хранения, объединив озёра данных, файловые системы и промежуточные уровни хранения в рамках Amazon S3.
11.04.2026 [19:53], Сергей Карасёв
Everspin увеличит мощности по производству MRAM-памятиКомпания Everspin Technologies, разработчик магниторезистивной энергонезависимой памяти с произвольным доступом (MRAM), объявила о заключении соглашения о стратегическом сотрудничестве с Microchip Technology. Партнёрство направлено на расширение производственных мощностей и обеспечение долгосрочных поставок MRAM-изделий. В настоящее время Everspin изготавливает MRAM-чипы и туннельные магниторезистивные (TMR) датчики на линии в Чандлере (Аризона, США), которая располагается на площадке NXP. В рамках нового соглашения Everspin создаст точную копию такого производства на объекте Microchip в американском штате Орегон. Партнёрство с Microchip, как ожидается, обеспечит ряд стратегических преимуществ. В частности, Everspin сможет нарастить объёмы выпуска продукции и обеспечить стабильность поставок. Кроме того, Everspin получит дополнительные возможности для реализации научно-исследовательских программ, направленных на улучшение характеристик MRAM и развитие соответствующей технологии. Речь идёт о новых сценариях использования такой памяти и о поддержке рабочих нагрузок следующего поколения.
Источник изображения: Everspin «Сотрудничество с Microchip позволит увеличить масштабы производства продукции для удовлетворения спроса, одновременно способствуя дальнейшей реализации наших планов в области MRAM», — заявил глава Everspin. Соглашение между Everspin и Microchip Technology заключено на 10 лет с возможностью последующего расширения каждые два года. Первые продукты, изготовленные на предприятии в Орегоне, поступят на рынок во II половине 2027 года. Everspin продолжит производить чипы MRAM и TMR-датчики на линии в Чандлере.
11.04.2026 [14:18], Сергей Карасёв
Altera продлила жизненный цикл FPGA до 2045 годаКомпания Altera объявила об увеличении жизненного цикла своих FPGA-продуктов: некоторые решения серий Agilex, MAX 10 и Cyclone V будут предлагаться вплоть до 2045 года. Таким образом, клиенты, проектирующие критически важные системы на базе ПЛИС, могут быть уверены в долгосрочной доступности указанных изделий. Отмечается, что FPGA применяются в составе различных платформ в промышленном, коммуникационном, аэрокосмическом, медицинском и транспортном секторах. Такие системы зачастую рассчитаны на длительный срок службы, а поэтому для них требуется доступность основных компонентов в течение 10–20 лет и более. «Заказчикам, разрабатывающим системы с большим сроком службы, необходима предсказуемость (в отношении доступности комплектующих). Продлевая жизненный цикл FPGA до 2045 года, мы обеспечиваем стабильность и гибкость, которые требуются для обеспечения работоспособности систем на протяжении десятилетий», — говорит Майк Фиттон (Mike Fitton), вице-президент по маркетингу Altera. Компания подчёркивает, что прекращение производства компонентов может привести к дорогостоящему перепроектированию оборудования, повторной сертификации и сбоям в работе систем. Расширяя поддержку своих наиболее востребованных FPGA, Altera помогает клиентам снизить риски, упростить планирование долгосрочного технического обслуживания и поддержки, а также обеспечить непрерывность функционирования платформ. Гарантии продолжительного жизненного цикла являются одним из ключевых факторов при выборе компонентов OEM-производителями и системными интеграторами. Вместе с тем увеличение сроков доступности не распространяется на изделия Agilex 7, оснащённые чипами HBM2E. Связано это с более коротким жизненным циклом указанной памяти. |
|

