Материалы по тегу: ai
18.01.2025 [22:48], Сергей Карасёв
ASRock представила индустриальные мини-ПК и материнские платы на базе Intel Arrow Lake-H и AMD Ryzen 300 AIКомпания ASRock Industrial, по сообщению ресурса CNX-Software, представила индустриальные компьютеры небольшого форм-фактора NUC(S) Ultra 200 Box и материнские платы NUC Ultra 200 на новейших процессорах Intel Core Ultra 200H (Arrow Lake-H). Кроме того, дебютировали аналогичные устройства 4X4 Box AI300 и платы 4X4 AI300 на чипах AMD Ryzen AI 300. Модели NUC Ultra 200 Box, NUCS Ultra 200 Box и платы NUC Ultra 200 в зависимости от модификации комплектуются процессором Core Ultra 7 255H (6P+8E) с частотой до 5,1 ГГц или Core Ultra 5 225H (4P+8E) с частотой до 4,9 ГГц. В первом случае используется узел Intel Arc 140T GPU (74 TOPS), во втором — Intel Arc 130T GPU (63 TOPS). Оба чипа оснащены блоком Intel AI Boost с производительностью 13 TOPS. Новинки поддерживают до 96 Гбайт оперативной памяти DDR5-6400 в виде двух модулей SO-DIMM. Есть по одному разъёму M.2 Key M 2242 (PCIe 4.0 x4) и M.2 Key M 2242/2280 (PCIe 4.0 x4) для NVMe SSD, а также M.2 Key E 2230 (PCIe x1, USB 2.0, CNVi) для контроллера Wi-Fi/Bluetooth. Модели с обозначением NUC и материнские платы также снабжены портом SATA-3. В оснащение входят звуковой кодек Realtek ALC256 и сетевой адаптер 2.5GbE на базе Intel I226LM. Платы и модели NUC оснащены дополнительным портом 2.5GbE на основе Intel I226V. Кроме того, мини-компьютеры несут на борту комбинированный адаптер Wi-Fi 6E (802.11ax) + Bluetooth 5.3. Все изделия располагают двумя выходами HDMI 2.1 TMDS (4096 × 2160 точек @ 60 Гц) и двумя портами DisplayPort 2.1/1.4a, интерфейсом DP++/USB Type-C (4096 × 2160 @ 60 Гц), аудиогнездом на 3,5 мм, портами USB 3.2 Gen2 Type-A (три у NUCS и четыре у NUC), интерфейсом USB4/Thunderbolt 4, портом USB 3.2 Gen2 x2 Type-C. На плате есть разъёмы для двух портов USB 2.0 и последовательного порта RS232/RS422/RS485. Габариты NUC составляют 117,5 × 110,0 × 49 мм, NUCS — 117,5 × 110,0 × 38 мм, плат — 104 × 102 мм. Диапазон рабочих температур у мини-компьютеров простирается от 0 до +40 °C, у плат — от -20 до +70 °C. В свою очередь, компьютеры 4X4 Box AI300 и платы 4X4 AI300 могут комплектоваться процессором AMD Ryzen AI 7 350 (8 ядер; до 5,0 ГГц; AMD Radeon 860M) или AMD Ryzen AI 5 340 (6 ядер; до 4,8 ГГц; AMD Radeon 840M). В обоих случаях задействован нейропроцессор Ryzen AI на архитектуре XDNA 2 с производительностью до 50 TOPS. Объём памяти DDR5-5600 может достигать 96 Гбайт (два модуля SO-DIMM). Изделия наделены коннекторами M.2 Key M 2242 (PCIe 4.0 x4) и M.2 Key M 2242/2280 (PCIe 4.0 x4) для NVMe SSD, а также слотом M.2 Key E 2230 (PCIe x1, USB 2.0) для адаптера Wi-Fi/Bluetooth (мини-компьютеры несут на борту модуль Wi-Fi 6E). В оснащение входят сетевые адаптеры 2.5GbE (Realtek RTL8125BG) и 1GbE (Realtek RTL8111H), звуковой кодек Realtek ALC256. Набор разъёмов включает по два интерфейса HDMI 2.1 (7680 × 4320 @ 60 Гц) и DisplayPort 1.4a / USB Type-C (4096 × 2160 @ 60 Гц), аудиогнездо на 3,5 мм, три порта USB 3.2 Gen2 Type-A, два порта USB4/Thunderbolt 4, два порта USB 2.0 (через коннекторы на плате). Размеры компьютеров составляют 117,5 × 110,0 × 49 мм, плат — 104 × 102 мм. Диапазон рабочих температур — от 0 до +40 °C и от 0 до +70 °C соответственно.
14.01.2025 [23:08], Сергей Карасёв
Minisforum N5 Pro: настольный NAS с AMD Ryzen AI 9 HX PRO 370 и портом OCuLinkКомпания Minisforum, по сообщению ресурса NAS Compares, представила любопытную новинку — NAS N5 Pro в «настольном» форм-факторе с высокопроизводительной аппаратной частью. Устройство несёт на борту процессор AMD Ryzen AI 9 HX PRO 370 (Strix Point), который объединяет 12 ядер (24 потока) с базовой тактовой частотой 2 ГГц и возможностью повышения до 5,1 ГГц. В состав чипа входят графический ускоритель AMD Radeon 890M и движок AI Engine. Сетевое хранилище Minisforum N5 Pro оснащено двумя слотами SODIMM с поддержкой до 96 Гбайт DDR5-5600. Доступны пять отсеков для накопителей LFF/SFF с интерфейсом SATA-3 вместимостью до 22 Тбайт каждый. Кроме того, присутствуют три слота для NVMe SSD: по одному M.2 2230/2280 PCIe 4.0 x1, U.2/M.2 2280/22110 PCIe 4.0 x1 и U.2/M.2 2280/22110 PCIe 4.0 x2. В первый из этих разъёмов может быть установлен накопитель ёмкостью до 4 Тбайт, в два других — до 15 Тбайт. Таким образом, в максимальной конфигурации NAS предлагает 144 Тбайт пространства. ![]() Источник изображения: Minisforum Новинка располагает слотом расширения PCIe x16 (PCIe 4.0 x4) и портом OCuLink 4i x1 (PCIe 4.0 x4). Присутствуют по одному сетевому порту 10GbE и 5GbE с разъёмами RJ45, два порта USB4 (40Gbps; DisplayPort Alt Mode), три разъёма USB 3.2 Gen2 Type-A (10Gbps), порт USB 2.0 Type-A, интерфейс HDMI 2.0, а также аудиогнездо 3,5 мм. Питание (19 В / 12,63 A) подаётся через DC-разъём. Отмечается, что материнская плата размещена на съёмном модуле, что упрощает обслуживание или обновление установленных компонентов. Во фронтальной части NAS располагается полупрозрачная декоративная панель с магнитным креплением.
13.01.2025 [10:28], Руслан Авдеев
Akamai откажется от своих CDN-сервисов в Китае, но не по вине ПекинаКомпания Akamai, занимающаяся облачными решениями и проектами в сфере кибербезопасности, намерена завершить работу своих CDN-сервисов в Китае. При этом дело совсем не в том, что компании трудно вести дела в стране — нашлись более перспективные ниши, сообщает The Register. Новость о прекращении работы CDN-сервисов появилась в письмах, отправленных компанией клиентам и партнёрам. В документе указывается, что 30 июня 2026 года назначено датой вывода из эксплуатации всех CDN-сервисов компании в КНР. Клиентам предлагается либо ничего не предпринимать ничего, в этом случае в результате их «перенесут» на CDN-серверы Akamai, расположенные за пределами Китая, либо использовать аналогичные сервисы местных компаний. При этом в письме предупреждают, что для сохранения бесперебойного обслуживания такие клиенты должны будут завершить переход на решения партнёров к 30 июня 2026 года. Akamai может помочь с миграцией на сервисы Tencent Cloud и работает над аналогичными предложениями для Wangsu Science & Technology. ![]() Источник изображения: Akamai Китай считается довольно сложной страной для ведения IT-бизнеса зарубежными компаниями, от которых почти всегда требуют работать при посредничестве местных партнёров. Кроме того, иногда зарубежные компании настойчиво просят подробно ответить на вопросы о том, как функционируют их продукты и технологии. IBM и Microsoft даже организовали специальные центры, где детально демонстрируют представителям китайских властей свои решения, доказывая, что компании не несут угрозы безопасности КНР. Некоторые же компании с большой осторожностью относятся к работе в Китае, поскольку боятся утечки интеллектуальной собственности. Судя по всему, с Akamai случай совершенно другой, поскольку в компании сообщили журналистам, что, как и любой бизнес, компания постоянно оценивает свои предложения на разных рынках, чтобы оптимально удовлетворять запросы клиентов. При этом она по-прежнему намерена продолжать работу в КНР и с китайскими партнёрами за рубежом. Представитель Akamai также сослался на августовский отчёт о доходах, в ходе которого генеральный директор компании Том Лейтон констатировал, что она трансформировалась из пионера CDN-сервисов в распределённого облачного оператора. Это означает, что вычислительные сервисы и сервисы безопасности теперь генерируют две трети выручки, и руководство верит, что именно эти продукты обеспечат Akamai будущий рост и прибыльность. CDN-бизнес считается не особенно перспективным и, возможно, требует немалого труда для обеспечения работы с тех пор, как конкуренцию составили гиганты вроде Cloudflare и AWS. В октябре 2023 года появилась новость о том, что магистральный провайдер Lumen свернёт CDN-бизнес и передаст его Akamai. Тем временем в последнее время Akamai предпочитает работать с облачными решениями. Например, в начале 2024 года она анонсировала сервис Gecko для облачных вычислений на периферии, а в апреле того же года запустила облако с ускорителями NVIDIA RTX для обработки видео.
06.01.2025 [15:00], Руслан Авдеев
Microsoft приостановила строительство крупного ИИ ЦОД для OpenAI в ВисконсинеГородку Маунт-Плезант (Mount Pleasant) в Висконсине (США) не везёт в попытках стать технохабом. Сначала Foxconn отказалась от $10-млрд проекта по созданию завода для выпуска LCD-дисплеев. Теперь поставила на паузу строительство кампуса ЦОД стоимостью $3,3 млрд и компания Microsoft, сообщает The Register. По данным The Infromation, новый дата-центр предназначен для ИИ-суперкомпьютера OpenAI. Кампус должен стать одним из пяти крупнейших в мире ЦОД. Как свидетельствуют местные СМИ, Microsoft заявила, что первая фаза строительства ЦОД на участке более 400 га будет закончена вовремя. А вот планы по реализации второй фазы сейчас пересматриваются в связи с переоценкой влияния новых технологий на дизайн дата-центров. Microsoft подтвердила, что строительство приостановлено на раннем этапе, а на пересмотр планов могут уйти месяцы. Вероятно, компании также придётся обновить разрешения на строительство. ![]() Источник изображения: S Turby/unsplash.com Microsoft не уточняет, о каком именно «редизайне» идёт речь, но местные власти надеются, что по пути Foxconn редмондский гигант не пойдёт. Microsoft уже начала строительство на всех участках, где должны появиться ЦОД, и, по имеющимся данным, «на годы» опережает расписание, во всяком случае — в плане выполнения финансовых обязательств в соответствии с соглашением, заключенным ранее. Кроме того, «благотворительные» проекты вроде создания AI Co-Innovation Lab совместно с Университетом Висконсина также будут продолжены. Известно, что Foxconn сохранила за собой часть выделенных земель (зона 1 на схеме), где займётся выпуском серверов. Зоны 2 и 3 были выделены Foxconn в 2017 году, но позже были переданы Microsoft. Кампус в зоне 3B должен заработать в 2025 году. В прошлом году компания также развернула строительство в зоне 3A и начала земляные работы в зоне 2 — именно в этих зонах работы временно заморожены. ![]() Истчоник изображения: RCEDC Пока остаётся только догадываться, почему компания решила пересмотреть архитектуру своих ЦОД. Прошлогодние данные косвенно свидетельствуют о том, что предполагается внедрение замкнутой системы охлаждения без использования испарительных систем. Переход на неё, вероятно, поможет снизить расходы воды фактически до нуля. По данным Microsoft, Маунт-Плезант станет одним из мест, где такие технологии будут внедрять в 2026 году в первую очередь. Связаны ли задержки строительства именно с этим вопросом или нет, не уточняется. В Microsoft подтверждают, что по-прежнему намерены вложить в проект $3,3 млрд до конца 2026 года.
24.12.2024 [21:50], Руслан Авдеев
xAI одобрили 150-МВт подключение к энергосети, хотя местные жители опасаются роста цен и перебоев с поставками электричестваИИ-кластер xAI Colossus получил «второе дыхание». Энергоснабжающая компания Tennessee Valley Authority (TVA) решила выделить ему 150 МВт мощностей. Это значительно расширяет возможности вычислительного центра, сообщает TechRadar. В частности, теперь можно запитать от энергосети все 100 тыс. ИИ-ускорителей NVIDIA H100. Ранее такая возможность ставилась под вопрос из-за энергетических ограничений. Местные компании выражали озабоченность тем, как огромное эгнергопотребление скажется на электросети Теннесси. Когда xAI впервые запустила кластер в июле 2024 года, ему было доступно лишь 8 МВт. Поэтом временно для питания задействовали генераторы, дополненные энергохранилищами Tesla Megapack. Летом местная коммунальная компания Memphis Light, Gas & Water (MLGW) обновила имевшуюся подстанцию, чтобы обеспечить xAI подачу 50 МВт. А xAI обязалась построить за $24 млн собственную подстанцию на 150 МВт. Суперкомпьютеру Colossus для эксплуатации всех 100 тыс. ускорителей одновременно требуется около 155 МВт. MLGW и TVA пришлось убеждать местных жителей, рост спроса на энергию со стороны xAI не повлияет на надёжность электроснабжения в районе Мемфиса. По словам MLGW, 150 МВт всё ещё находятся ниже допустимого предела прогнозируемой пиковой нагрузки компании. Предпринимаются меры по обеспечения закупок электричества у TVA, если это будет необходимо. Местные экоактивисты и жители уже жалуются, что совет директоров TVA одобрил запрос xAI на энергию, не изучив последствия такого решения для жителей. Не исключено, что решение негативно скажется на ценах для физических лиц, хотя именно их интересы должны были бы быть в приоритете. В начале декабря сообщалось, что xAI получила ещё $6 млрд инвестиций и приступила к расширению Colossus до 1 млн ускорителей.
19.12.2024 [10:27], Сергей Карасёв
Стартап xAI начал монтаж суперускорителей NVIDIA GB200 NVL72 для ИИ-кластера ColossusСтартап xAI Илона Маска (Elon Musk), по сообщению ресурса ServeTheHome, приступил к расширению мощности ИИ-кластера Colossus. Речь идёт о монтаже суперускорителей NVIDIA GB200 NVL72 на архитектуре Blackwell. В начале сентября уходящего года компания xAI запустила ИИ-суперкомпьютер Colossus, в основу которого изначально легли 100 тыс. ускорителей NVIDIA H100. Сообщалось, что в дальнейшем количество ускорителей NVIDIA планируется увеличить вдвое. В начале декабря стартап получил $6 млрд инвестиций с целью увеличения числа ускорителей в составе Colossus до 1 млн штук. Отмечалось, что проект по расширению ИИ-кластера реализуется в партнёрстве с NVIDIA, Dell и Supermicro. Вместе с тем ранее появилась информация, что Dell перехватила у Supermicro крупный заказ на ИИ-серверы для xAI. Судя по всему, именно Dell является поставщиком систем GB200 NVL72 для комплекса Colossus. На днях специалист xAI Удай Руддарраджу (Uday Ruddarraju) опубликовал на своей странице в социальной сети Х фотографию новых серверных модулей в составе Colossus. На снимке видны вычислительные узлы и лотки с коммутаторами NVLink. Наблюдатели отмечают, что компоненты пока не подключены к основной сети, на что указывает отсутствие оптоволоконных соединений. Вместе с тем уже подсоединены низкоскоростные сети управления. В узлах установлены карты NVIDIA Bluefield-3. В отражении от шара с логотипом xAI просматриваются стойки с оборудованием. Предположительно, это системы производства Dell. Ранее глава этой компании Майкл Делл (Michael Dell) объявил о начале поставок первых в мире серверных стоек GB200 NVL72. Кроме того, Dell представила систему PowerEdge XE9712, которая использует архитектуру суперускорителя GB200 NVL72.
18.12.2024 [13:30], Руслан Авдеев
Индонезия предложила Илону Маску разместить в стране дата-центры xAIИндонезия рассчитывает убедить Илона Маска (Elon Musk) развернуть в стране дата-центры для ИИ-стартапа xAI. В Национальном экономическом совете Индонезии (National Economic Council) заявили, что в следующем году намерены встретиться с мультимиллиардером на инаугурации президента США Дональда Трампа (Donald Trump), сообщает Datacenter Dynamics. Ранее Маск отклонил предложение построить в Индонезии аккумуляторный завод для Tesla, но в прошлом взаимодействовал с Лухутом (Luhut) — советником нынешнего президента страны Прабово Субианто (Prabowo Subianto). В одном из интервью Лухут заявил, что подал идею открытия дата-центров xAI в Индонезии, когда Маск посещал в мае Бали для запуска в стране интернет-сервисов Starlink. ![]() Источник изображения: Ifan Bima/unsplash.com Сам советник назвал Маска «другом» и объяснил, что идея строительства аккумуляторного завода не принесла плодов, поскольку у Tesla имелись свои соображения, предусматривавшие создание таких заводов в США. Тем не менее, Лухут рассчитывает, что идея создания в Индонезии ЦОД будет принята более благосклонно. Индонезия считается быстрорастущим рынком ЦОД. Ранее в этом году Microsoft анонсировала инвестиции в цифровую инфраструктуру в стране в объёме $1,7 млрд — для открытия нового облачного региона. Также свои планы по развитию в стране объявили Alibaba, AWS, Google, Huawei и Tencent и AWS. Также в апреле 2024 года о партнёрстве с NVIDIA для строительства ИИ ЦОД за $200 млн объявила компания Indosat. Последняя уже запустила ИИ-облако Merdeka.
16.12.2024 [16:08], Руслан Авдеев
Южнокорейская FuriosaAI включается в ИИ-гонку с собственным ускорителем RNGDСеульский стартап FuriosaAI, основанный в 2017 году, анонсировал в августе 2024 года ИИ-ускорители RNGD для гиперскейлеров и других корпоративных клиентов. Недавно компания начала тестирование новинки и рассылку образцов некоторым потенциальным клиентам, включая LG AI Research и Aramco, сообщает DigiTimes. RNGD позиционируется как решение, способное бросить вызов продуктам NVIDIA. По словам создателей, новинка на 40 % энергоэффективнее NVIDIA H100 при сопоставимых вычислительных характеристиках. Представитель компании недавно сообщил журналистам, что изначально компания сконцентрировалась исключительно на разработке, отложив производство до получения значительных инвестиций. Чип первого поколения был разработан ещё в 2021 году. Несмотря на скромный бюджет в $6 млн, компании удалось добиться результатов, достаточных для того, чтобы в раунде финансирования серии B компания получила $60 млн, что и позволило разработать модель RNGD. ![]() Источник изображения: FuriosaAI RNGD создан совместно с Global Unichip Corporation (GUC) и TSMC и рассчитан на работу с большими языковыми моделями (LLM). Ускоритель использует память HBM3 и выполнен по 5-нм техпроцессу. Компания разрабатывала его с прицелом на инференс моделей уровня GPT-3 и новее. Соблюдению баланса производительности и энергопотребления способствовала проприетарная архитектура Tensor Construction Processor. В августе 2024 года LG AI Research начала интегрировать RNGD в свою ИИ-инфраструктуру, чтобы снизить зависимость от NVIDIA и способствовать развитию южнокорейского полупроводникового бизнеса. При этом FuriosaAI прилагает все усилия для программной поддержки своего продукта. В стартапе уверены, что рынок ИИ достаточно велик, чтобы места хватило и игрокам помельче NVIDIA. В компании сравнивают амбиции FuriosaAI с усилиями создателей первых электромобилей, которые в итоге произвели революцию во всей индустрии. Стартап укрепляет международные связи для экспансии в США, Азии и других регионах. В сентябре был подписан меморандум о взаимопонимании с арабской Aramco. Дополнительно ведутся переговоры с потенциальными партнёрами в Японии и Индии. Первые коммерческие поставки RNGD ожидаются в I квартале 2025 года. Подчёркивается и важность Тайваня для экосистемы FuriosaAI — в качестве хаба для передового производства остров играет ключевую роль. Потенциально рассматривается открытие офиса на Тайване для укрепления сотрудничества.
12.12.2024 [08:57], Владимир Мироненко
Google попросила регулятора разорвать эксклюзивное облачное соглашение Microsoft и OpenAI из-за вреда конкуренцииGoogle попросила Федеральную торговую комиссию США (FTC) разорвать эксклюзивное облачное соглашение Microsoft с OpenAI, в рамках которого разработчик ИИ-чат-бота ChatGPT использует её облачную инфраструктуру для функционирования своих сервисов и других задач, сообщил ресурс The Information. Просьба Google поступила после того, как FTC запросила у неё отзыв о деловой практике Microsoft в рамках более широкого расследования, касающегося лицензирования софтверным гигантом ПО, а также облачных вычислений, предложений по обеспечению кибербезопасности и услуг ИИ. По словам Google, соглашение о партнёрстве Microsoft и OpenAI, которое позволяет Microsoft быть единственным поставщиком облачных сервисов, размещающим передовые модели OpenAI, создает значительные рыночные барьеры и потенциально увеличивает затраты для клиентов облачных сервисов, желающих получить доступ к передовым технологиям ИИ То, что Microsoft является крупнейшим инвестором OpenAI, вложившим в неё более $13 млрд, объясняет столь тесное сотрудничество двух компаний, но другим технологическим компаниям, которые конкурируют с Microsoft на облачном рынке, таким как Google и Amazon, тоже хотелось бы размещать у себя в облаке модели OpenAI, чтобы их облачным клиентам не нужно было обращаться к услугам Microsoft для получения доступа к технологии стартапа, говорится в публикации The Information. Ведущие игроки считают, что нынешнее эксклюзивное соглашение ограничивает конкуренцию на облачном рынке и выбор клиентов. Как утверждают источники ресурса, компании, которые приобретают технологию OpenAI через Microsoft, могут столкнуться с дополнительными расходами, если они не используют решения Microsoft для своей работы. Google и другие участники рынка отметили, что такой подход к ценообразованию может навредить клиентам и ограничить доступ к ИИ-технологиям.
06.12.2024 [17:05], Владимир Мироненко
xAI получил ещё $6 млрд инвестиций и приступил к расширению ИИ-кластера Colossus до 1 млн ускорителейСтартап xAI, курируемый Илоном Маском (Elon Musk), планирует на порядок расширить свой ИИ-кластер Colossus в Мемфисе (Теннесси, США), включающий в настоящее время 100 тыс. NVIDIA H100. Как пишет HPCwire, об этом заявил Брент Майо (Brent Mayo), старший менеджер xAI по строительству объектов и инфраструктуры. По словам Майо, стартап уже приступил к работам по расширению ИИ-кластера до не менее чем 1 млн ускорителей совместно с NVIDIA, Dell и Supermicro. Для содействия проекту xAI была создана оперативная группа под руководством главы Торговой палаты Мемфиса Теда Таунсенда (Ted Townsend), готовая оказать помощь в решении проблем в любое время суток. Проект знаменует собой крупнейшее капиталовложение в истории региона. Заявление о старте работ над расширением ИИ-кластера последовало после появления сообщений о том, что xAI удалось привлечь ещё $6 млрд инвестиций. Новые вливания могут увеличить оценку рыночной стоимости стартапа до $50 млрд. Точные цифры будут объявлены немного позже. Colossus используется для обучения моделей ИИ для чат-бота Grok, разработанного xAI, который уступает по возможностям и аудитории лидеру рынка OpenAI ChatGPT, а также Google Gemini. Стартап выпустил свою первую большую языковую модель Grok-1 в конце 2023 года, в апреле 2024 года вышла модель Grok-1.5, а Grok-2 — в августе. Colossus был построен в рекордные сроки — всего за три месяца. Гендиректор NVIDIA, Дженсен Хуанг (Jensen Huang), заявил, что «в мире есть только один человек, который мог бы это сделать». Хуанг назвал Colossus «несомненно самым быстрым суперкомпьютером на планете, если рассматривать его как один кластер», отметив, что ЦОД такого размера обычно строится три года. Активисты из числа жителей Мемфиса раскритиковали проект из-за повышенной нагрузки на местные энергосети и требований, которые ИИ-кластер предъявляет к региональной энергосистеме. «Мы не просто лидируем; мы ускоряем прогресс беспрецедентными темпами, обеспечивая при этом стабильность энергосети, используя Megapack», — заявил в ответ Брент Майо на мероприятии в Мемфисе, пишет Financial Times. |
|