Материалы по тегу: s
20.03.2024 [17:36], Руслан Авдеев
Одной проблемой больше: Airbus отказалась от миллиардной сделки по покупке у Atos подразделения Big Data and SecurityЕвропейский аэрокосмический гигант Airbus отказался от планов покупки бизнеса французской Atos — т.н. Big Data and Security (BDS), в первую очередь связанного с обеспечением кибербезопрасности, передаёт Dark Reading. Французскому правительству, как считается, необходимо предотвратить продажу BDS иностранным покупателям. В крайнем случае власти даже могут национализировать Atos, которая должна банкам почти €5 млрд. BDS предоставляет решения в области кибербезопасности, ИИ, Big Data и суперкомпьютерных вычислений. Бизнес тесно связан с французским правительством и военными и даже имеет контракт на киберзащиту Олимпийских игр в Париже. Когда впервые появились новости о покупке Atos BDS, в Airbus утверждали, что приобретение существенно ускорит цифровую трансформацию аэрокосмической компании и укрепит её киберзащиту и позиции в сфере ИИ. Сами компании неожиданный поворот событий не комментируют, заявив, что обсуждение сделки прекращено. В январе сообщалось, что акционеры Airbus не уверены в прочном финансовом положении BDS. В Atos отметили, что оценивают последствия решения Airbus и другие возможности, соответствующие «суверенным императивам французского государства». Некоторые эксперты скептически относились к сделке, говоря о политической подоплёке и о том, что сделка невыгодна Airbus. Впрочем, Airbus уже второй раз отказывается от покупки бизнесов Atos. В 2022 году она анонсировала планы приобрести долю в 29,3 % в принадлежащей Atos компании Evidian (впоследствии Eviden), частью которой была группа BDS. На тот момент в Atos ожидали, что появление подобного «якорного акционера» ускорит рост Evidian, сохранив технологический суверенитет во Франции и Европе в сферах кибербезопасности, облачных сервисов и HPC. ![]() В марте 2023 года Airbus отказалась от покупки доли в Evidian, расплывчато заявив, что сделка не соответствует целям компании. На тот момент против неё выступали и некоторые акционеры Airbus. Заявлялось о политической мотивированности сделки. Так или иначе, покупка BDS могла бы серьёзно укрепить киберзащиту Airbus. Это особенно важно на фоне того, что аэрокосмический сектор становится лакомой целью для кибератак — и Airbus, и Boeing уже испытали это на себе. Atos, долги которой составляют около €4,8 млрд, остро нуждается в средствах. В феврале провалились переговоры по продаже подразделения ЦОД и хостинга Tech Foundations компании EP Equity Investment (EPEI). Теперь отказ от сделки с Airbus, оценивавшейся в $1,65–$2 млрд, негативно повлиял на Atos, чьи акции 19 марта в моменте падали на 25 %. Всего со 2 января акции компании упали более чем на 70 %, с €6,99 (около $7,59 по текущему курсу) до €1,74 (≈$1,89) на момент закрытия торгов 19 марта. Atos пришлось перенести доклад о заработках, выкроив дополнительное время на оценку «вариантов стратегии».
19.03.2024 [15:44], Сергей Карасёв
RuVDS развернёт ЦОД на дрейфующей льдине в Арктике, сбросив оборудование с борта Ил-76Российский хостинг-провайдер RuVDS проведёт эксперимент по эксплуатации дата-центра в Арктике: компактный ЦОД планируется развернуть на территории ледового лагеря «Барнео», расположенного на дрейфующей льдине в непосредственной близости от Северного полюса. Как сообщается, в рамках проекта оборудование будет сброшено на льдину с борта тяжёлого военно-транспортного самолёта Ил-76. Предполагается, что десантирование позволит испытать весь спектр возможных нагрузок и тем самым по максимуму проверить надёжность серверной техники. ЦОД рассчитан на работу в экстремальных условиях. После развёртывания дата-центру предстоит поддерживать связь со спутником RuVDS, передавая через него телеметрию. Точность переданных данных, а также и их качество будут отслеживать представители хостинг-провайдера и специалисты ООО «Стратонавтика», технического партнёра проекта. Упомянутый космический аппарат, выведенный на орбиту в 2023 году, пролетает над полюсом каждые полтора часа, что позволяет получить сигнал без помех. Эксперимент стартует в конце марта — начале апреля этого года и продлится до одного месяца. Помимо десантирования серверного оборудования, с борта того же самолёта будет осуществлён первый в мире стратосферный прыжок на Северный полюс с высоты более 10 тыс. м. Рекорд, как ожидается, будет установлен Героем России, лётчиком-космонавтом Михаилом Корниенко, пилотом-инструктором Александром Лынником и директором ООО «Стратонавтика» Денисом Ефремовым. В начале марта они прошли испытания в термо- и барокамерах и осуществили тестовый прыжок с 6 тыс. м. «Мы рады, что наша аппаратура фактически десантируется вместе с людьми, осуществляющими рекордный прыжок из стратосферы на Северный полюс, ведь над полюсом атмосфера тоньше и стратосфера начинается уже с 10 км. В итоге оба события дополнительно привлекут внимание к заполярью, подчёркивая его важность и перспективность», — говорит генеральный директор хостинг-провайдера RuVDS Никита Цаплин.
19.03.2024 [03:18], Владимир Мироненко
Всё своё ношу с собой: NVIDIA представила контейнеры NIM для быстрого развёртывания оптимизированных ИИ-моделейКомпания NVIDIA представила микросервис NIM, входящий в платформу NVIDIA AI Enterprise 5.0 и предназначенный для оптимизации запуска различных популярных моделей ИИ от NVIDIA и её партнёров. NVIDIA NIM позволяет развёртывать ИИ-модели в различных инфраструктурах: от локальных рабочих станций до облаков. Предварительно созданные контейнеры и Helm Chart'ы с оптимизированными моделями тщательно проверяются и тестируются на различных аппаратных платформах NVIDIA, у поставщиков облачных услуг и на дистрибутивах Kubernetes. Это обеспечивает поддержку всех сред с ускорителями NVIDIA и гарантирует, что компании смогут развёртывать свои приложения генеративного ИИ где угодно, сохраняя полный контроль над своими приложениями и данными, которые они обрабатывают. Разработчики могут получить доступ к моделям посредством стандартизированных API, что упрощает разработку и обновление приложений. NIM также может использоваться для оптимизации исполнения специализированных решений, поскольку не только использует NVIDIA CUDA, но и предлагает адаптацию для различных областей, таких как большие языковые модели (LLM), визуальные модели (VLM), а также модели речи, изображений, видео, 3D, разработки лекарств, медицинской визуализации и т.д. NIM использует оптимизированные механизмы инференса для каждой модели и конфигурации оборудования, обеспечивая наилучшую задержку и пропускную способность и позволяя более просто и быстро масштабироваться по мере роста нагрузок. В то же время NIM позволяет дообучить и настроить модели на собственных данных, поскольку можно не только воспользоваться облачными API NVIDIA для доступа к готовым моделями, но и самостоятельно развернуть NIM в Kubernetes-средах у крупных облачных провайдеров или локально, что сокращает время разработки, сложность и стоимость подобных проектов и позволяет интегрировать NIM в существующие приложения без необходимости глубокой настройки или специальных знаний.
19.03.2024 [01:37], Сергей Карасёв
NVIDIA и Siemens внедрят генеративный ИИ в промышленное проектирование и производство
gtc 2024
nvidia
omniverse
siemens
software
ии
облако
производство
промышленность
разработка
цифровой двойник
Компании NVIDIA и Siemens сообщили о расширении сотрудничества с целью внедрения иммерсивной визуализации и генеративного ИИ в промышленное проектирование и производство. В частности, Siemens интегрирует новый программный интерфейс NVIDIA Omniverse Cloud API в свою платформу Xcelerator. Напомним, Omniverse Cloud представляет собой комплексный пакет облачных сервисов, позволяющих проектировать, публиковать, эксплуатировать и тестировать приложения метавселенной вне зависимости от местонахождения. В свою очередь, Xcelerator — интегрированный пакет ПО и сервисов для разработки приложений. NVIDIA и Siemens совмещают платформы Omniverse и Xcelerator, выводя промышленную автоматизацию на новый уровень. Партнёры объединяют обширную промышленную экосистему Xcelerator и физически точный механизм создания виртуального мира в реальном времени с поддержкой ИИ. Это позволяет создавать точные реалистичные цифровые двойники. В рамках сотрудничества Siemens, в частности, интегрирует NVIDIA Omniverse Cloud API в состав Teamcenter X (входит в Xcelerator). Облачная система Teamcenter X предоставляет пользователям безопасный доступ к данным управления жизненным циклом изделия (PLM) из любой точки мира, с любого устройства и в любое время. Благодаря использованию API Omniverse могут быть ускорены различные рабочие процессы при создании цифровых двойников, такие как изменение условий освещения, применение тех или иных материалов и пр. Отмечается, что традиционно компании в значительной степени полагались на физические прототипы при реализации крупномасштабных промышленных проектов. Такой подход является дорогостоящим, ограничивает инновации и замедляет время выхода решений на рынок. Совместная инициатива Siemens и NVIDIA позволяет устранить указанные препятствия путём создания фотореалистичных цифровых двойников, учитывающих физику реального мира. Это означает, что такие компании, как HD Hyundai (занимается судостроением, тяжёлым оборудованием и машиностроением), могут унифицировать и визуализировать сложные инженерные проекты непосредственно в Teamcenter X. В частности, API USD Query позволяет пользователям Teamcenter X перемещаться и взаимодействовать с физически точными объектами, тогда как API USD Notify обеспечивает автоматическое обновление дизайна и сцен в режиме реального времени. В дальнейшем Siemens планирует внедрить технологии NVIDIA и в другие продукты Xcelerator.
15.03.2024 [23:15], Владимир Мироненко
Amazon и Microsoft заблокируют 20 марта облачные сервисы для клиентов из РоссииMicrosoft разослала клиентам в России уведомление о том, что 20 марта прекратит подписки «на определённое программное обеспечение для управления или проектирования (включая облачные решения) для организаций, зарегистрированных в России», сообщила в своём Telegram-канале вице-президент по инвестициям Softline Елена Волотовская. По факту это может означать полное отключение доступа к облачным решениям, отметила она, добавив, что аналогичные уведомления получили российские клиенты Amazon. В письме Microsoft сообщается, что решение было принято в связи со вступлением с 20 марта в силу санкций ЕС в отношении России. «Microsoft должна прекратить действие этих подписок к 20 марта 2024 года, до будущих указаний ЕС, которые изменят это решение, или общего или специального разрешения от регулирующих органов ЕС. После 20 марта 2024 года вы не сможете получить доступ к этим продуктам или услугам Microsoft, а также к любым данным, хранящимся в них», — указано в документе. В связи с этим компания Softline рекомендовала российским компаниям, которые до сих пор пользуются услугами этих компаний, в оперативном порядке сделать резервное копирование данных со всех облачных сервисов Microsoft, Amazon и Google, в т.ч. на местах пользователя. Компания также создала информационный канал, где заказчики иностранных облачных решений смогут найти ответы и оперативно проконсультироваться по проблемам, которые могут возникнуть с 20 марта 2024 года. Некоторые другие игроки оперативно отреагировали на сложившуюся ситуацию. Так, в TrueConf сообщили о решении открыть горячую линию и начать предоставлять бесплатные лицензии на сервер ВКС и корпоративный мессенджер TrueConf Server всем организациям, срочно ищущим замену решениям Microsoft Teams и Skype for Business. Похожее предложение есть и у DION. UPD 16.03.2024: появились уточнения относительно того, что будет заблокировано Microsoft — Azure (в том числе Azure Stack) и все компоненты Microsoft 365. Кроме того, возможна деактивация развёрнутых локально Microsoft Office, SQL Server, BizTalk Server, System Center, Visual Studio. Windows Server и клиентские Windows, вероятно, затронуты не будут.
14.03.2024 [23:45], Алексей Степин
Войны ретаймеров: Astera Labs анонсировала чипы Aries 6 для PCIe 6.0Практически сразу после анонса чипов Broadcom Vantage 5 и 6 Astera представила свой вариант ретаймеров для инфраструктуры PCIe следующего поколения — серию чипов Aries 6, передаёт ServeTheHome. Высокий интерес к ретаймерам вызван теми возможностями, что открывает PCI Express 6.0 как в плане скоростей, так и в плане функциональности (CXL). А переход на новое поколение шины необходим для дальнейшего развития набирающего популярность генеративного ИИ. По мере роста скоростей PCI Express обострялась и проблема длины проводников на печатной плате, при которой сигнал достаточно устойчив и вписывается в окно требуемых характеристик. Если при переходе от PCIe 3.0 к 4.0 удалось обойтись сравнительно малой кровью, то для PCIe 5.0 уже потребовались более сложная схемотехника и более продвинутые ретаймеры. PCIe 6.0 же накладывает ещё более жёсткие требования к целостности сигнала. Платформы GPU-кластеров и СХД компактнее не становятся, так что требуемая длина проводников на печатных платах растёт, а вместе с ней растёт и важность ретаймеров, поскольку без них согласовать высокоскоростной сигнал PCIe 6.0 становится невозможно. Таким системам требуется сразу несколько подобных чипов, причём стоимость каждого из них достигает $20, так что суммарная стоимость этих компонентов на уровне целого ЦОД весьма внушительна. Новые чипы Aries 6 относятся к третьему поколению «умных» DSP-ретаймеров. Они представлены в вариантах с 8 и 16 линиями PCIe 6.0 и позволяют в три раза увеличить длину соответствующего соединения на плате, говорит Astera Labs. При этом новинки поддерживают CXL 3.x и предоставляют расширенные средства диагностики и управления COSMOS. Энергопотребление в режиме PCIe 6.0 при этом заявлено меньше, чем у Broadcom Vantage 6 — 11 Вт против 13 Вт у конкурента. Aries 6 уже протестированы на совместимость с полсотней разнообразных PCIe-соединений, включая root-комплексы и конечные устройства. И если Broadcom пока только говорит о ретаймерах для PCIe 6.0, а появление первого «кремния» Vantage 6 запланировано лишь на следующий год, то Astera Labs начала поставки образцов Aries 6 ещё в феврале. Похоже, Broadcom будет нелегко развернуться на этом рынке.
13.03.2024 [22:40], Алексей Степин
Больше флопс за те же ватты: Cerebras представила царь-ускоритель WSE-3 и подружилась с QualcommКомпания Cerebras Systems, известная своими разработками в области сверхбольших ИИ-процессоров, рассказала о третьем поколении чипов Wafer Scale Engine. В своё время компания произвела фурор, представив процессор, занимающий всю площадь кремниевой пластины (46225 мм2). В первом поколении WSE речь шла о 1,2 трлн транзисторов при 400 тыс. ядер и 18 Гбайт сверхбыстрой памяти. WSE-2 состоял из 2,6 трлн транзисторов, имел 850 тыс. ядер и 40 Гбайт интегрированной памяти. В WSE-3 разработчики перешли на использование 5-нм техпроцесса TSMC, что позволило разместить на пластине такого же размера уже 4 трлн транзисторов, составляющих 900 тыс. ядер и 44 Гбайт SRAM. Суммарная пропускная способность набортной памяти достигает 21 Пбайт/с, а внутреннего интерконнекта — 214 Пбит/с. Казалось бы, выигрыш в количестве ядер по сравнению с WSE-2 не так уж велик, однако на этот раз Cerebras сделала упор на архитектуру. Если верить заявлениям разработчиков, WSE-3 практически вдвое быстрее WSE-2 при сопоставимом уровне энергопотребления (15 кВт) и той же цене: 125 Пфлопс против 75 Пфлопс в разреженных FP16-вычислениях. WSE-3 в 62 раза быстрее NVIDIA H100, хотя и сам чип WSE-3 в 57 раз больше. WSE-3 по-прежнему требует специфического окружения. Он станет сердцем новой системы CS-3 (23 кВт), содержащей всю необходимую сопутствующую инфраструктуру, включая СЖО, подсистемы питания, а также сетевого интерконнекта Ethernet. Последний не изменился и состоит из 12 каналов со скоростью 100 Гбит/с. Для подготовки «сырых» данных по-прежнему будет использоваться внешний суперсервер. А для их хранения будут использоваться узлы MemoryX ёмкостью до 1200 Тбайт (1,2 Пбайт). Главной задачей CS-3 станет «натаскивание» сверхбольших языковых моделей, в 10 раз превышающих по количеству параметров GPT-4 и Google Gemini. Cerebras говорит о 24 трлн параметров, причём без необходимости различных ухищрений для эффективного распараллеливания процесса обучения, что требуется в случае с GPU-кластерами. По словам компании, для обучения Megatron 175B на таких кластерах требуется 20 тыс. строка кода Python/C++/CUDA, а в случае WSE-3 потребуется лишь 565 строк на Python. CS-3 поддерживает масштабирование вплоть до 2048 систем. Такая конфигурация вкупе с MemoryX сможет обучить модель типа Llama 70B всего за день. Первый суперкомпьютер на базе CS-3 — 8-Эфлопс Condor Galaxy 3 — будет скромнее и получит всего 64 стойки CS-3, которые разместятся в Далласе (США). В совокупности с уже имеющимися кластерами на базе CS-1 и CS-2 вычислительная мощность систем Cerebras должна достигнуть 16 Эфлопс. В сотрудничестве c группой G42 запланировано создание ещё шести систем CS-3, что в сумме позволит довести производительность до 64 Эфлопс. Condor Galaxy 3 будет отличаться от предшественников ещё одним нововведением: в рамках сотрудничества с Qualcomm Cerebras установит в новом кластере существенное число инференс-ускорителей Qualcomm Cloud AI100 Ultra. Каждый такой ускоритель имеет 64 ядра, 128 Гбайт памяти LPDDR4x, потребляет 140 Вт и развивает 870 Топс на INT8-операциях. Причём програмнный стек полностью интегрирован, что позволит в один клик запустить обученные WSE-3 модели на ускорителях Qualcomm. Сотрудничество Cerebras и Qualcomm носит официальный характер, его целью является оптимизация ИИ-моделей для запуска на AI100 Ultra с учетом различных продвинутых техник, таких как разреженные вычисления, спекулятивное исполнение (сочетание малых LLM для получения быстрого результата с проверкой большой LLM), использование «сжатого» формата MxFP6 для весов и других. Благодаря мощностям, предоставляемым WSE-3, цикл разработки, оптимизации и тестирования таких моделей удастся существенно ускорить, что в итоге должно обеспечить десятикратное улучшение удельной производительности новых решений.
11.03.2024 [16:47], Алексей Степин
Synopsys завершила разработку платформы Ethernet 1,6 Тбит/сИзвестный разработчик микроэлектроники, компания Synopsys сообщила о завершении работ над новым сверхскоростным вариантом Ethernet, способным работать на скорости 1,6 Тбит/с, что вдвое превышает достигнутые коммерческими решениями на сегодня скорости. Эта разработка нацелена главным образом на рынок крупных ЦОД, особенно связанных с ИИ-технологиями, предъявляющими высокие требования к характеристикам сетевых каналов и интерконнектов. В настоящее время стандарт 1.6TbE не ратифицирован IEEE, и случится это не ранее 2026 года, но Synopsys считает, что применение её наработок в этой области позволит производителям микрочипов начать работу над созданием соответствующих контроллеров уже сейчас. Предварительная версия стандарта 802.3dj, описывающего базовые характеристики таких устройств, должна быть завершена уже в этом году. Дизайн IP-блоков, созданный Synopsys, базируется именно на 802.3dj. Он предусматривает скорости 4 × 400 Гбит/с, 2 × 800 Гбит/с, либо один канал со скоростью 1,6 Тбит/с. В разработке используются блоки SerDes со скоростью 112 и 224 Гбит/с, отвечающие спецификациям OIF-112G и OIF-224G соответственно. В IP-решении Synopsys используются трансмиттеры PAM4, в которых реализована продвинутая обработка сигнала (feed-forward equalization), ресиверы же содержат продвинутый DSP. Это сочетание позволяет соединению работать при потере сигнала в канале, составляющей 45 дБ. Synopsys утверждает, что её технологии позволят реализовать Ethernet со скоростью 1,6 Тбит/с с 50 % экономией площади кремния. Продвинутая архитектура коррекции ошибок при этом должна обеспечить латентность на 40 % ниже в сравнении с классической реализацией. В состав решения Synopsys входят блоки MAC, PCS, контроллер физического уровня (PHY) на основе прошедших тестирование и доказавших свою эффективность SerDes-блоков 224G, а также IP-модуль верификации, который должен помочь разработчикам чипов ускорить и упростить разработку новых сверхскоростных Ethernet-чипов. Все IP-компоненты доступны сейчас и ими уже воспользовались многочисленные клиенты, сообщает Synopsys. Новая разработка Synopsys получила одобрение со стороны консорциума Ethernet.
09.03.2024 [13:51], Сергей Карасёв
Astera Labs рассчитывает привлечь в ходе IPO более $500 млнСтартап Astera Labs поделился подробностями о процедуре первичного публичного размещения акций (IPO), осуществить которую планируется в ближайшее время. Компания рассчитывает привлечь свыше $500 млн и получить оценку приблизительно $4,0–$4,5 млрд. Информация о планах Astera Labs по выходу на биржу появилась в начале февраля 2024 года. Тогда говорилось, что процедура может состояться в марте. Позднее стартап направил документы об IPO в Комиссию по ценным бумагам и биржам США (SEC). И вот теперь раскрыты детали об этом процессе. ![]() Источник изображения: Astera Labs Предложение включает 14 788 903 обыкновенные акции, которые предоставит собственно Astera Labs, и 3 011 097 обыкновенных ценных бумаг, которые будут проданы некоторыми из существующих акционеров компании. Таким образом, общий объём размещения составляет 17 800 000 акций. Ожидается, что цена бумаг в ходе IPO окажется на отметке $27–$30. В случае размещения по верхней границе указанного диапазона Astera Labs сможет получить до $534 млн. Кроме того, андеррайтеры будут иметь 30-дневный опцион на приобретение до 2 670 000 дополнительных обыкновенных акций у Astera Labs по цене первоначального публичного размещения. Бумаги начнут торговаться на Nasdaq Global Select Market под тикером «ALAB». Помощь в осуществлении IPO окажут Morgan Stanley, JP Morgan, Barclays, Deutsche Bank Securities, Evercore ISI, Jefferies, Needham & Company, Stifel, Craig-Hallum Capital Group, Roth Capital Partners, Loop Capital Markets и Siebert Williams Shank.
07.03.2024 [14:12], Владимир Мироненко
Индивидуальный подход: разработчик специализированных ИИ-чипов Taalas привлёк $50 млн инвестицийСтартап Taalas Inc., занимающийся разработкой специализированных чипов ИИ, объявил о выходе из скрытого режима (stealth mode) и привлечении $50 млн инвестиций в ходе двух раундов финансирования, которые возглавили Quiet Capital и венчурный капиталист Пьер Ламонд (Pierre Lamond). Taalas была основана выходцами из Tenstorrent, ещё одного разработчика ИИ-ускорителей. Практически все чипы ИИ оптимизированы для ускорения перемножения матриц, что необходимо для работы нейронных сетей, отметил ресурс SiliconANGLE. Некоторые чипы имеют дополнительные оптимизации, ориентированные на конкретные случаи использования ИИ. Например, ИИ-ускоритель NVIDIA H200 оснащён увеличенным объёмом высокоскоростной памяти для ускорения инференса больших языковых моделей (LLM). Taalas занимается дальнейшим развитием этой концепции. Как сообщил ресурс The Information, компания разрабатывает ускорители, которые не просто оптимизированы для обработки ИИ-нагрузок, а построены с учётом требований конкретной нейронной сети. Компания считает, что такой подход сделает её чипы значительно быстрее, чем ИИ-ускорители общего назначения от ведущих производителей. ![]() Источник изображения: Taalas «Коммерческое использование ИИ требует 1000-кратного улучшения вычислительной мощности и эффективности — цель, которая недостижима с помощью нынешних поэтапных подходов, — заявил Любиша Бажич (Ljubisa Bajic), сооснователь и гендиректор Taalas. — Путь вперёд — реализовать внедрение моделей глубокого обучения в кремнии — это самый верный путь к устойчивому ИИ». Разработка собственного ускорителя может занять годы и потребовать сотни миллионов долларов инвестиций. Также создание чипов, оптимизированных для разных алгоритмов искусственного интеллекта, вероятно, будет сопряжено с серьезными техническими проблемами. С целью их решения компания разрабатывает автоматизированный рабочий процесс проектирования, который, по её словам, позволит ускорить вывод полупроводников на рынок. Один из разрабатываемых Taalas чипов будет содержать достаточно памяти для хранения «большой модели ИИ» без надобности во внешней оперативной памяти, что позволит ускорить обработку данных. Taalas планирует выпустить свой первый чип для больших языковых моделей в III квартале 2024 года и начать его поставку клиентам в I квартале 2025 года. |
|