Материалы по тегу: hardware
22.07.2025 [17:22], Руслан Авдеев
xAI купила за $10 территорию бывшей газовой электростанции неподалёку от будущего ИИ ЦОДxAI приобрела бывшую газовую электростанцию Duke Energy в Саутхейвене (Southaven, Миссисипи), неподалёку от нового дата-центра в Мефисе (Теннесси). Точнее говоря, то, что от неё осталось. Главную ценность представляют земля и коммуникации, сообщает Datacenter Dynamics. Площадка находится на Стентон-роуд (Stanton Road) в штате Миссисипи, в нескольких километрах от Тулейн-роуд (Tulane Road), где xAI намерена возвести ЦОД площадью более 90 тыс. м2, который станет частью уже действующего суперкомпьютера Colossus. xAI уже эксплуатирует дата-центр в Мемфисе и недавно получила разрешение на использование газовых турбин на площадке на постоянной основе, к большому сожалению местных активистов. Ранее местные СМИ сообщали, что бывшая электростанция с территорией была куплена калифорнийской MZT Tech LLC. По официальным данным, xAI контролирует её деятельность. По данным местных властей, формально xAI приобрела собственность у некой Джули Джеймс (Julie M. James) за $10 наличными. Ранее сотрудников xAI уже замечали на площадке, но представитель xAI заявил, что компания не раскрывает происходящего на территории бывшей электростанции. На тот момент, по его словам, сделка была «всё ещё на стадии обсуждения». Электростанция на территории 46 га в Саутхейвене была построена Duke Energy в 2003 году и в своё время могла обеспечить до 640 МВт. Позже владелец продал объект, наряду с семью другими газовыми электростанциями на северо-востоке США, компании Kgen Partners за $475 млн. Спутниковые изображения свидетельствуют, что на площадке осталось немного инфраструктуры, но сохранились подключения к коммунальным сетям — электричеству, газу и воде. Фактически площадка имеет подключение к 200-МВт газовой электростанцией Southaven, управляемой Tennessee Valley Authority (TVA). Компании, похоже, приходится рассматривать самые необычные сценарии для обеспечения своих потребностей в энергии. Пару недель назад её основатель Илон Маск (Elon Musk) заявил, что намерен купить электростанцию за границей и импортировать её в США для обеспечения своих дата-центров электричеством.
22.07.2025 [12:30], Сергей Карасёв
AAEON выпустила индустриальный одноплатный компьютер PICO-TWL4 на базе Intel Twin LakeКомпания AAEON пополнила ассортимент одноплатных компьютеров моделью PICO-TWL4 для задач промышленной автоматизации. Изделие выполнено в форм-факторе Pico-ITX с размерами 100 × 72 мм, а в основу положена аппаратная платформа Intel Twin Lake. В зависимости от модификации установлен чип Intel Processor N150 (четыре ядра; до 3,6 ГГц; 6 Вт) или Core i3-N355 (восемь ядер; до 3,9 ГГц; 15 Вт). Процессоры наделены графическим ускорителем Intel UHD Graphics. Объём оперативной памяти DDR5-4800 Non-ECC достигает 16 Гбайт (один модуль SO-DIMM). В оснащение входят сетевые контроллеры Intel I226 2.5GbE и Realtek RTL8111H-CG 1GbE с разъёмами RJ45, звуковой кодек Realtek ALC256 (опционально), полноразмерный слот mSATA/mPCIe, слот M.2 2230 E-Key для адаптера Wi-Fi/Bluetooth и модуль TPM 2.0 для обеспечения безопасности. Накопитель может быть подключён к порту SATA-3. Есть два порта USB 3.2 Gen2 и коннектор HDMI 1.4 с возможностью вывода изображения с разрешением до 3840 × 2160 пикселей (30 Гц). Через разъёмы на плате могут быть задействованы четыре последовательных порта (по два RS-232/422/485 и RS-232), интерфейс LVDS (1920 × 1200 точек; 60 Гц) или eDP 1.4 (3840 × 2160 пикселей; 60 Гц), четыре порта USB 2.0, линейный аудиовыход и пр. Питание (12 В) подаётся через двухконтактный разъём Phoenix. AAEON отмечает, что диапазон напряжений можно расширить до 9–36 В с помощью дополнительной платы-адаптера. Новинка может эксплуатироваться при температурах от 0 до +60 °C. Предусмотрен четырёхконтактный разъём для подключения вентилятора охлаждения. Заявлена совместимость с Windows 10/11 и Ubuntu 22.04.2 (ядро 5.19).
22.07.2025 [11:07], Сергей Карасёв
Kioxia представила первый в мире NVMe SSD вместимостью 245 ТбайтКомпания Kioxia анонсировала первый в отрасли твердотельный накопитель NVMe, способный вместить 245,76 Тбайт информации. Устройство, вошедшее в семейство LC9, рассчитано прежде всего на рабочие нагрузки, связанные с генеративным ИИ. SSD серии LC9 дебютировали в марте нынешнего года. Их основой служат чипы флеш-памяти BiCS FLASH QLC 3D с технологией CBA (CMOS directly Bonded to Array). Задействован неназванный проприетарный контроллер, совместимый с NVMe 2.0. Для обмена данными используется интерфейс PCIe 5.0 x4 (с поддержкой двух портов). Изначально в семействе LC9 были представлены решения в формате U.2 вместимостью до 122,88 Тбайт. Теперь максимальная ёмкость таких устройств увеличилась в два раза — до 245,76 Тбайт. Кроме того, в серии LC9 появились изделия типоразмера EDSFF E3.L на 245,76 Тбайт, а также EDSFF E3.S на 122,88 Тбайт. Скорость последовательного чтения достигает 12 Гбайт/с, скорость последовательной записи — 3 Гбайт/с. Это не самые высокие показатели для SSD корпоративного класса с интерфейсом PCIe 5.0, но в данном случае Kioxia пришлось пойти на компромисс с целью достижения рекордной вместимости. Величина IOPS на операциях произвольного чтения составляет до 1,3 млн IOPS, на операциях произвольной записи — до 50 тыс. Накопители рассчитаны на 0,3 полных перезаписи в сутки (показатель DWPD). SSD поддерживают ряд функций для повышения надёжности и обеспечения целостности данных. Это средства защиты от внезапного отключения питания (PLP), технология FDP (Flexible Data Placement) для повышения долговечности, инструмент управления ошибками на основе контроля четности и пр. Реализованы шифрование AES-256 и алгоритмы постквантовой криптографии, устойчивые к атакам будущих квантовых компьютеров.
22.07.2025 [10:29], Руслан Авдеев
Великобритания и OpenAI подписали новое соглашение о стратегическом сотрудничествеВласти Великобритании подписали с компанией OpenAI договор о новом стратегическом партнёрстве для углубления сотрудничества в области исследований аспектов ИИ-безопасности. Также будут изучаться возможности инвестиций OpenAI в британскую ИИ-инфраструктуру, сообщает Reuters. По словам представителя правительства, искусственный интеллект будет играть основополагающую роль для изменений по всей стране — от улучшения работы системы здравоохранения до устранения барьеров, мешающих экономическому росту. Власти считают, что добиться этого невозможно без компаний вроде OpenAI, которые продвигают новую технологическую революцию на международном уровне. Благодаря новому соглашению значительная часть соответствующих работ будет проводиться в Великобритании. Правительство намерено организовать инвестиции £1 млрд в вычислительную инфраструктуру для развития ИИ, рассчитывая увеличить публичные вычислительные мощности в 20 раз в течение следующих пяти лет. ![]() Источник изображения: Ian Taylor/unsplash.com В гонке технологий искусственного интеллекта в лидеры выходят США, Китай и Индия, а Европа играет роль «догоняющего». Партнёрство с OpenAI, чье взаимодействие с Microsoft в своё время привлекло внимание британского регулятора, возможно, позволит компании расширить лондонский офис и изучить возможность применения ИИ в самых разных областях — при отправлении правосудия, в обороне, для обеспечения безопасности и в образовательных целях. Глава OpenAI Сэм Альтман похвалил правительство за то, что оно признало потенциал ИИ-технологий в рамках проекта AI Opportunities Action Plan, инициатива в реализации которого принадлежит британскому премьеру, планирующему превратить страну в «ИИ-сверхдержаву» — для этого рассматривается даже создание новых АЭС. Правительство лейбористов не особенно справляется с обеспечением экономического роста в первый год у власти и теперь заявляет, что ИИ может повысить производительность на 1,5 % в год, что принесёт £47 млрд ($63,37 млрд) ежегодно в течение десятилетия.
21.07.2025 [20:10], Руслан Авдеев
Амстердам и Франкфурт выбыли из первой двадцатки локаций гиперскейлеровНовые данные экспертов Synergy Research Group показывают, что 62 % текущей IT-мощности ЦОД гиперскейлеров приходится всего на 20 регионов, это ряд штатов США и крупных городских агломераций. Так, только на Северную Вирджинию и «Большой Пекин» приходится 20 % от общемирового объёма. За ними следуют штаты Орегон и Айова, Дублин (Ирландия), штат Огайо, Даллас (Техас) и Шанхай (КНР). Из 20 крупнейших рынков ЦОД гиперскейлеров 14 находятся в США, 5 — в Азиатско-Тихоокеанском регионе (Китае (Пекин и Шанхай), Австралии, Японии, Сингапуре) и лишь 1 — в Европе. На вторую двадцатку рейтинга приходится ещё 17 % рынка, причём в этом случае более заметную роль играют площадки за пределами США. Так, Амстердам и Франкфурт ранее входили в первую двадцатку рынка, но недавно ослабили позиции. Лидерство США на первых 20 позициях рейтинга обусловлено тем, что 60 % мировых гиперскейлеров, включая четыре крупнейших, находятся в Штатах. Кроме того, на страну приходится почти половина всех доходов рынка облачных вычислений в нескольких ключевых сегментах. Доминировать по ключевым показателям, вероятно, продолжат США и Китай, хотя более заметную роль начинают играть и некоторые перспективные рынки «второго эшелона». Исследование основано на анализе парка дата-центров 20 крупнейших мировых компаний, стоящих за облачными и интернет-сервисами, включая крупнейших операторов SaaS/IaaS/PaaS, поиска, социальных сетей, электронной коммерции и игровой индустрии. Наиболее крупные ЦОД у Amazon, Microsoft и Google. Помимо значительного присутствия в США, каждая из компаний имеет несколько ЦОД во многих других странах мира. В целом на тройку лидеров приходится 58 % мощностей гиперскейлеров. За лидерами следуют Meta/Facebook, Alibaba, Tencent, Apple, ByteDance и иные «малые гиперскейлеры». ![]() Источник изображения: Synergy Research Group Прогнозы Synergy основаны на отслеживании проектов гиперскейлеров по созданию дата-центров. Всего известно о 535 объектах, которые находятся на разных стадиях планирования, строительства или оснащения. По данным Synergy, на выбор локации для ЦОД влияет близость к клиентам, доступность и стоимость недвижимости и электроэнергии, наличие сетевой инфраструктуры, простота ведения бизнеса, местные финансовые стимулы, политическая стабильность и минимум последствий стихийных действий. По данным Synergy, в условиях стремительного роста спроса на ИИ-технологии и инфраструктуру, всё более важным критерием становится доступность электроэнергии. Это часто снижают конкурентоспособность крупных экономических мировых хабов вроде Лондона, Нью-Йорка и Франкфурта, в то время как относительно малонаселённые штаты США вроде Орегона, Айовы и Небраски выигрывают в силу местной специфики и позиции властей, желающих привлечь больше инвестиций. Хотя прогнозы компании показывают, что Северная Вирджиния останется крупнейшим рынком гиперскейлеров в США, интерес будет всё больше смещаться в сторону Юга и Среднего Запада США. За пределами США рост рынков ЦОД ожидается в Индии, Австралии, Малайзии, Испании и Саудовской Аравии. Год назад Synergy сообщала, что ключевыми рынками ЦОД гиперскейлеров остаются Северная Вирджиния, Пекин и Дублин. В конце июня 2025 года она же опубликовала исследование, согласно которому у гиперскейлеров есть уже 1,2 тыс. дата-центров, а через пять лет они будут доминировать на рынке ЦОД.
21.07.2025 [18:58], Владимир Мироненко
xAI ищет разработчиков кастомных чипов для ИИ-системИИ-стартап xAI Илона Маска (Elon Musk) разместил вакансии для разработчиков кастомных полупроводников, сообщил ресурс DataCenter Dynamics (DCD). Стартап ищет сотрудников для «создания ИИ-систем нового поколения, охватывающих весь спектр, от полупроводниковых чипов до компиляторов и моделей». Круг должностных обязанностей специалистов включает «разработку и доработку новых аппаратных архитектур для расширения границ вычислительной эффективности», а также использование ИИ в процессе проектирования оборудования. От кандидатов на должность ожидается знание инструментов для создания чипов, таких как Chisel, а также VHDL и Verilog. В идеале претенденты должны иметь опыт «симуляции обучающих рабочих нагрузок на новых аппаратных ИИ-архитектурах». Соответствующий требованиям сотрудник присоединится к команде xAI, работающей над «созданием ИИ-систем нового поколения, которые обеспечат революционную эффективность и масштабируемость на новом оборудовании, компиляторах и моделях». ![]() Источник изображения: xAI Как полагает DCD, команду, о которой идёт речь, возглавляет Сяо Сан (Xiao Sun), ранее работавший в Meta✴, а до этого занимавшийся разработкой аппаратного обеспечения и алгоритмов машинного обучения, а также CMOS-устройств в IBM. DCD отметил, что на данный момент неясно, сотрудничает ли xAI с другой компанией в разработке полупроводниковых чипов, как, например, Google и OpenAI, которые работают с Broadcom над созданием семейства TPU и ИИ-чипа соответственно. Компания Tesla, в которой Маск является крупнейшим акционером, также разработала собственный чип — Dojo D1, ориентированный на обработку видеоданных для обучения полуавтономных автомобилей. Однако большая часть команды, стоящей за чипом Dojo D1, покинула Tesla, и его будущее туманно. Илон Маска показал систему в 2024 году. Годом ранее Маск заявил, что чип используется из-за нехватки ускорителей NVIDIA: «Честно говоря, я не знаю, смогут ли они поставить нам достаточно графических процессоров — возможно, Dojo нам и не нужен, — но они не смогут». Как и Tesla, xAI использует значительное количество ускорителей NVIDIA для своих вычислительных задач, более 200 тыс. из них входят в состав суперкомпьютера Colossus в Мемфисе (США). Маск надеется расширить Colossus до миллиона ускорителей. В свою очередь, xAI приобрела участок под второй дата-центр в Мемфисе.
21.07.2025 [16:42], Сергей Карасёв
Запущен самый мощный в Великобритании ИИ-суперкомпьютер — комплекс Isambard-AIВ Великобритании официально введён в эксплуатацию суперкомпьютер Isambard-AI: это самый мощный в стране вычислительный комплекс, ориентированный на задачи ИИ. В июньском рейтинге TOP500 машина занимает 11-е место, а в списке наиболее энергоэффективных систем Green500 — четвёртую позицию. Суперкомпьютер назван в честь британского инженера Изамбарда Кингдома Брюнеля (Isambard Kingdom Brunel), внёсшего значимый вклад в Промышленную революцию. Проект реализован при участии компаний NVIDIA и HPE, Бристольского университета (University of Bristol) и других организаций. Создание Isambard-AI обошлось примерно в £225 млн ($302 млн). В основу комплекса положена платформа HPE Cray EX с интерконнектом Slingshot 11. Задействованы 5448 суперчипов NVIDIA GH200 Grace Hopper, которые объединяют 72-ядерный Arm-процессор NVIDIA Grace и ускоритель NVIDIA H200. Применена СХД Cray ClusterStor E1000 вместимостью 25 Пбайт. Питание полностью обеспечивается от источников энергии с нулевыми выбросами углерода. Избыточное тепло может использоваться для обогрева близлежащих зданий. Развёрнута система прямого жидкостного охлаждения HPE. В тесте Linpack комплекс Isambard-AI демонстрирует FP64-быстродействие на уровне 216,5 Пфлопс, тогда как теоретический пиковый показатель составляет 278,58 Пфлопс. Производительность при решении ИИ-задач достигает 21 Эфлопс (FP8). Как отмечается, Isambard-AI более чем в 10 раз превосходит по скорости второй по быстродействию суперкомпьютер в Великобритании и предоставляет больше вычислительной мощности, чем все остальные НРС-машины страны вместе взятые. Новый комплекс будет применяться для решения наиболее сложных и ресурсоёмких задач, таких как разработка передовых лекарственных препаратов, моделирование климата, материаловедение, большие языковые модели (LLM) и др. Доступ к ресурсам Isambard-AI регулируется Министерством науки, инноваций и технологий и Департаментом исследований и инноваций Великобритании.
21.07.2025 [09:27], Сергей Карасёв
10 долгих лет: состоялся официальный запуск экзафлопсного суперкомпьютера AuroraВ Аргоннской национальной лаборатории (ANL) Министерства энергетики США (DOE) в Иллинойсе состоялась церемония торжественного разрезания ленты в честь официального запуска суперкомпьютера Aurora экзафлопсного класса. В мероприятии приняли участие руководители и исследователи Intel, HPE и DOE. Церемония была скорее формальностью, поскольку Aurora стала доступна исследователям со всего мира в начале текущего года. Aurora является одним из трёх суперкомпьютеров DOE с производительностью более 1 Эфлопс. Наряду с El Capitan в Ливерморской национальной лаборатории имени Лоуренса (LLNL) и Frontier в Национальной лаборатории Оук-Ридж (ORNL) эти НРС-комплексы занимают первые три места как в списке TOP500 самых быстрых суперкомпьютеров мира, так и в бенчмарке HPL-MxP для оценки производительности ИИ. У суперкомпьютера непростая судьба. Анонс машины состоялся в 2015 году — система с FP64-производительностью на уровне 180 Пфлопс по плану должна была заработать в 2018 году. Однако планы неоднократно корректировались, а проект в конце концов был кардинально пересмотрен. Первые тестовые кластеры системы заработали более двух лет назад, а частично запущенная система попала в TOP500 в конце 2023 года. Целиком она заработала в 2024 году. В проекте по созданию Aurora принимали участие Intel и HPE. Машина построена на платформе HPE Cray EX — Intel Exascale Compute Blade: задействованы процессоры Intel Xeon CPU Max и ускорители Intel Data Center GPU Max, объединённые интерконнектом HPE Slingshot. В общей сложности применяются 63 744 ускорителей, что делает Aurora одним из крупнейших в мире суперкомпьютеров на базе GPU. Установлена ОС SUSE Linux Enterprise Server 15 SP4. Производительность в тесте Linpack составляет 1,012 Эфлопс, а теоретический пиковый показатель достигает 1,980 Эфлопс. НРС-комплекс занимает площадь около 930 м2. Развёрнута современная инфраструктура жидкостного охлаждения. Общая протяжённость соединений превышает 480 км, а количество конечных точек сети достигает 85 тыс. Aurora останется по-своему уникальным суперкомпьютером: CPU с HBM на борту больше не планируются, от Ponte Vecchio компания отказалась в пользу Habana Gaudi и Falcon Shores. Но и последние на рынок не попадут, а будут использоваться для внутренних тестов и обкатки технологий. На смену им должны прийти Jaguar Shores, но точных дат Intel не называет. ![]() Вычислительные мощности Aurora, как отмечается, помогают в решении сложнейших задач в самых разных областях. В биологии и медицине исследователи используют ИИ-возможности суперкомпьютера для прогнозирования эволюции вирусов, улучшения методов лечения рака и картирования нейронных связей в мозге. В аэрокосмической сфере Aurora используется для создания двигательных установок нового поколения и моделирования аэродинамических процессов. Комплекс играет важную роль в развитии технологий термоядерной энергетики, квантовых вычислений и пр.
21.07.2025 [08:52], Руслан Авдеев
Aker построит арктический ЦОД в норвежском НарвикеЗанимающаяся инвестициями в промышленность норвежская компания Aker готовится построить дата-центр в Нарвике (Narvik, Норвегия). Город и одноимённая коммуна расположены на севере страны, в 250 км от Полярного круга, сообщает Datacenter Dynamics. У площадки есть доступ к 230 МВт. Конечный пользователь объекта пока не назван. По словам Aker, дата-центр должен стать «катализатором» промышленного развития, создания рабочих мест и увеличения «экспортных доходов». В компании отмечает, что Северная Норвегия в изобилии предлагает доступную энергию ГЭС и другие источники «чистой» энергию наряду с благоприятными условиями для привлечения инвестиций и стимулирования инноваций. По данным финансового отчёта Aker за II квартал 2025 года, новый ЦОД получит финансирования от инвестиционной компании ICP Infrastructure. В реализации проекта примут участие и бывшие сотрудники дочерней компании Aker Horizons. Последняя специализировалась на «зелёной» энергетике и объединилась с материнским бизнесом в мае. Ранее Aker Horizon «изучала возможности» производства «чистого» аммиака и водорода (у компании был проект с немецкой VNG), и экобезопасной стали. Однако компания пришла к выводу, что дата-центры и «ИИ-фабрики» лучше подходят для имеющихся площадок. Сейчас Aker ведёт переговоры с операторами и потенциальными клиентами ЦОД. Компания, контрольный пакет акций которой принадлежит норвежскому миллиардеру Кьеллю Инге Рекке (Kjell Inge Rokke), отчиталась о прибыли за II квартал 2025 года. Стоимость чистых активов увеличилась на 7,43 % в годовом исчислении — с NKr61,9 млрд ($6,1 млрд) до NKr66,5 млрд ($6,5 млрд). Несколько лет назад Норвегия объявила, что намерена стать «фантастической площадкой» для дата-центров. В стране много энергетических ресурсов, в том числе «зелёных» и возобновляемых, а прохладный климат позволяет экономить на охлаждении. Некоторые кластеры даже охлаждаются водой из фьорда. Вместе с тем власти неодобрительно смотрят на майнинговые ЦОД, считая, что они не приносят обществу никакой выгоды.
20.07.2025 [14:26], Сергей Карасёв
NVIDIA приступила к производству ИИ-ускорителей GB300Компания NVIDIA, по сообщению DigiTimes, приступила к ограниченному производству суперчипов Grace Blackwell GB300 для ресурсоёмких ИИ-нагрузок. Ожидается, что поставки изделия будут организованы в сентябре с постепенным наращиванием объёмов выпуска. Решение GB300 представляет собой связку из Arm-процессора Grace с 72 ядрами Neoverse V2 и двух чипов Blackwell Ultra. В оснащение входят 288 Гбайт памяти HBM3E с пропускной способностью до 8 Тбайт/с. Ускоритель GB300 является основой стоечной системы GB300 NVL72, которая насчитывает 36 чипов Grace и 72 процессора Blackwell Ultra. ИИ-производительность такого комплекса достигает 720 Пфлопс на операциях FP8/FP6. «На данном этапе серьёзных проблем с GB300 нет. Поставки должны идти гладко со II половины года», — подчеркнули представители одного из ODM-производителей. ![]() Источник изображения: NVIDIA Вместе с тем, как отмечается, сохраняется высокий спрос на ускорители GB200. Заказчики продолжают закупать эти изделия, несмотря на сложности с охлаждением. Огромная вычислительная мощность и повышенная плотность компоновки серверов обусловили необходимость применения жидкостных систем отвода тепла. Однако при этом возникли проблемы протечек. Оказалось, что во многих случаях это связано с быстроразъёмными соединениями, которые не всегда удовлетворяют нужным требованиям — даже после стресс-тестирования на заводе. ODM-производители отмечают, что реальные условия эксплуатации сильно различаются по давлению воды и конструкции трубопроводов, что затрудняет полное исключение протечек. Послепродажное обслуживание требует значительных временных и финансовых затрат. В случае GB200 основные сложности были обусловлены переходом от архитектуры Hopper к Blackwell, что привело к комплексным изменениям на уровне платформы. С другой стороны, GB300 использует существующую инфраструктуру, а поэтому, как ожидается, серьёзных проблем при выпуске и поставках этих изделий не возникнет. ODM-производители, которые в настоящее время активно тестируют GB300, говорят об обнадёживающих результатах. Предполагается, что переход пройдёт гладко: массовые поставки запланированы на III квартал с увеличением объёмов выпуска в последней четверти текущего года. Новые вызовы может создать появление ускорителей следующего поколения семейства Rubin, которые придут на смену Blackwell Ultra во II половине 2026 года. Эта платформа предполагает использование чиплетов и полностью новой стойки Kyber (для VR300 NVL 576), которая заменит нынешнюю конструкцию Oberon. Плотность компоновки возрастёт до 600 кВт на стойку, что потребует ещё более надёжных систем охлаждения. Отмечается, что применение СЖО станет обязательным для суперускорителей Rubin. Вместе с тем с восстановлением производства ослабленных ускорителей H20, которые США вновь разрешили поставлять в Китай, возможны проблемы. Как передаёт Reuters со ссылкой на The Information, TSMC успела переключить производственные линии, которые использовались для H20, на выпуск других продуктов. Полное восстановление производства H20 может занять девять месяцев. |
|