Материалы по тегу: s
|
08.04.2025 [13:29], Сергей Карасёв
Eviden создаст для Сербии суперкомпьютер стоимостью €36 млнВласти Сербии, по сообщению ресурса Datacenter Dynamics, заключили контракт с Eviden (подразделение Atos Group) на создание нового суперкомпьютера. Речь идёт о приобретении системы BullSequana последнего поколения, которая будет поставлена к концу текущего года. Технические подробности проекта пока не раскрываются. Отмечается лишь, что контракт с Eviden является частью более широкого соглашения стоимостью €50 млн, подписанного между правительствами Сербии и Франции. Из этой суммы €36 млн пойдёт непосредственно на создание суперкомпьютера. Оставшаяся часть средств будет потрачена на ИИ-инициативы в таких сферах, как здравоохранение, энергетика, транспорт и государственное управление. На сегодняшний день, как отмечается, Сербия эксплуатирует как минимум один неназванный НРС-комплекс, созданный NVIDIA и размещённый в государственном дата-центре в Крагуеваце (столица административного региона Шумадия). Система, запущенная в декабре 2021 года, обошлась в €30 млн. В перспективе в модернизацию этого суперкомпьютера планируется инвестировать €40 млн, что позволит поднять его производительность в семь раз.
Источник изображения: Правительство Сербии Глава сербского управления по IT и электронному правительству Михайло Йованович (Mihailo Jovanovic) заявил, что новый суперкомпьютер, поставкой которого займётся Eviden, будет насчитывать «в 20 раз больше чипов, чем [нынешняя] система NVIDIA», и получит почти в 30 раз больше памяти. Какие именно чипы имеются в виду, Йованович уточнять не стал. Работа над государственным ЦОД в Крагуеваце стоимостью €30 млн началась в 2019 году, а открытие состоялось в 2020-м. Дата-центр состоит из двух объектов общей площадью около 14 тыс. м2 — это примерно в пять раз больше по сравнению с прежней ЦОД-площадкой в Белграде. Комплекс в Крагуеваце соответствует стандарту Tier IV: он предоставляет услуги хостинга для предприятий и правительственных структур.
08.04.2025 [11:42], Сергей Карасёв
Стоечное хранилище Blackmagic Cloud Backup 8 рассчитано на SATA-накопителиКомпания Blackmagic Design анонсировала стоечную систему хранения Cloud Backup 8, предназначенную прежде всего для резервного копирования и архивирования медиафайлов и проектов DaVinci Resolve. Устройство доступно для заказа по ориентировочной цене $1500. Новинка выполнена в форм-факторе 1U. Во фронтальной части располагаются восемь отсеков для HDD типоразмера LFF с интерфейсом SATA-3. Предусмотрена светодиодная индикация состояния накопителей: каждый слот подсвечивается световым кольцом, которое даёт наглядное представление об активности. Есть дополнительная защитная планка для фиксации дисков на месте. Система располагает четырьмя сетевыми портами 10GbE с разъёмами RJ45. Кроме того, есть порт USB 3.0 Type-C с поддержкой Ethernet Over USB. Заявленное энергопотребление составляет 180 Вт. Диапазон рабочих температур — от 0 до +40 °C. Новинка оснащена интерфейсом HDMI (1080p50, 1080p59.94, 1080p60): через него на мониторе или телевизоре может отображаться подробная информация о работе установленных HDD, загруженности сетевых подключений, подключенных пользователях и пр. Говорится о совместимости с Windows 10/11 и macOS 14/15 и выше. Реализована поддержка SMB 3 Multichannel. Одним из основных преимуществ платформы Cloud Backup 8 перед облачными хранилищами разработчик называет полное отсутствие подписок и каких-либо ежемесячных сборов. Пользователи получают локальный контроль над системой, что обеспечивает улучшенную безопасность: устройство можно применять без подключения к интернету.
07.04.2025 [16:37], Владимир Мироненко
MTS AI представила российского конкурента GitHub Copilot — ИИ-ассистента для разработчиков Kodify 2Компания MTS AI (дочерняя структура МТС Web Services) объявила о выходе ИИ-ассистента для разработчиков второго поколения Kodify 2. Новая версия ИИ-ассистента поддерживает 90 языков программирования, предлагая основные возможности для автоматизации и ускорения процесса разработки, включая автодополнение кода, исправление ошибок, генерацию тестов и документации, оптимизацию кода, а также преобразование текста в код. Kodify 2 с 7 млрд параметров поддерживает контекст длиной до 32 768 токенов и имеет API, совместимый OpenAI, что обеспечивает возможность интеграции с другими системами. Согласно проведённым тестам, Kodify 2 сопоставим по возможностям с лидирующим на рынке продуктом GitHub Copilot. В генерации тестов Kodify 2 выполнил задачу так же или лучше, чем GitHub Copilot, в 57 % случаев, а в преобразовании текста в код — в 48 % случаев. Тестирование проводилось методом прямого сравнения и оценки с помощью модели-судьи Claude Sonnet 3.5.
Источник изображения: MTS AI ИИ-агент Kodify используется c 2024 года командами разработки компаний из ПАО «МТС», а версия Kodify 2 будет доступна для покупки внешними заказчиками. По оценкам MTS AI, объём российского рынка ИИ-ассистентов для разработчиков в этом году составит 17,4 млрд руб., включая 13,9 млрд руб. сегмента on-premise-решений, и 3,5 млрд руб. — облачных. Доля рынка MTS AI может составить 10 %.
04.04.2025 [12:37], Руслан Авдеев
«Агрегатор ускорителей» Parasail анонсировал ИИ-гипероблакоСтартап Parasail привлёк $10 млн стартового капитала и выступил с необычным для рынка ИИ предложением. Компания стала своеобразным «агрегатором ускорителей», создав для инференса сеть, позволяющую свести вместе владельцев вычислительных мощностей и их клиентов с максимальной простотой, сообщает The Next Platform. Раунд финансирования возглавили Basis Set Ventures, Threshold Ventures, Buckley Ventures и Black Opal Ventures. Компанию основали Майк Генри (Mike Henry), ранее основавший производителя ИИ-решений Mythic и работавший одним из топ-менеджеров в Groq, и Тим Харрис (Tim Harris), генеральный директор Swift Navigation. Прежний опыт Майка Генри на рынке IT позволил заметить, что в последнее время ландшафт облачных сервисов стремительно меняется — если ранее на нём безраздельно доминировали гиперскейлеры вроде AWS, Microsoft Azure и Google Cloud, то с приходом ИИ они, казалось бы, сохраняют ведущие позиции, но на сцену выходят и новые облачные игроки, чья инфраструктура изначально рассчитана на ИИ-задачи, от обучения до инференса. В конце 2023 года бизнесмены основали компанию Parasail, которая совсем недавно заявила о себе, заодно собрав $10 млн финансирования. Фактически бизнес рассчитан на клиентов, которые заинтересованы в простом доступе к ИИ-технологиям — он будет связывать тех, кто располагает ими, и тех, кто в них нуждается.
Источник изображения: Campaign Creators/unsplash.com Parasail намеревается использовать рост облачных ИИ-провайдеров вроде CoreWeave (недавно вышедшей на IPO) и Lambda Labs. Для этого создана сеть AI Deployment Network, объединяющая их вычислительные ресурсы в единую инфраструктуру, которая масштабнее, чем Oracle Cloud Infrastructure (OCI). Компания применяет собственный «движок» для оркестрации процессов в этом гипероблаке. Ключевым преимуществом является низкая стоимость услуг — утверждается, что компании, желающие отказаться от сервисов вроде OpenAI и Anthropic, могут рассчитывать на экономию в 15–30 раз, а в сравнении с клиентами провайдеров open source моделей — в 2–5 раз. На настройку уходит несколько часов, а инференс после этого можно начать за считанные минуты. Сегодня Parasail предлагает в облаке ресурсы NVIDIA H200, H100 и A100, а также видеокарт NVIDIA GeForce RTX 4090. Цены составляют от $0,65 до $3,25 за час использования. Parasail столкнулась с проблемой несовместимости инфраструктур: разные облачные платформы используют уникальные подходы к вычислениям, хранению данных, сетевому взаимодействию, а также имеют различия в настройке, биллинге и автоматизации. Хотя Kubernetes и контейнеризация могли бы частично решить эти проблемы, их реализация у разных провайдеров сильно отличается, а Kubernetes изначально не предназначается для работы с несколькими кластерами, регионами или провайдерами одновременно. Чтобы обойти ограничения, Parasail разработала собственную систему, которая объединяет ускорители из разных облаков в единую глобальную сеть. Их решение позволяет централизованно управлять распределёнными узлами, игнорируя различия в инфраструктуре провайдеров. Если один облачный провайдер выйдет из строя, система автоматически заменяет его ресурсы другими, минимизируя простои. Дополняя эту систему автоматизированным динамическим выделением ускорителей, Parasail создаёт масштабируемую и эффективную глобальную инфраструктуру, способную оперативно адаптироваться к нагрузкам и сбоям. Оркестрация и оптимизация рабочих нагрузок в ИИ-инфраструктуре усложняются из-за огромного разнообразия моделей, архитектур, типов GPU и ASIC, а также множества способов их комбинирования. Parasail решает эту проблему с помощью гибридного подхода, сочетающего математическое моделирование, ИИ-алгоритмы и участие живых специалистов, что позволяет эффективно масштабироваться даже с небольшой командой.
Источник изображения: Campaign Creators/unsplash.com Закрытое бета-тестирование началось в январе, а позже спрос только вырос до той степени, что Parasail достигла семизначного ежегодного регулярного дохода (ARR). Теперь технология доступна всем, в числе клиентов — производитель чипов SambaNova, ИИ-платформа Oumi, ИИ-стартап Rasa и Elicit, позволяющий автоматизировать научные изыскания. В будущем стартап намерен быстро расширить штат из 12 работников, рассматриваются и варианты добавления в портфолио новых доступных ускорителей — сейчас там безусловно лидирует NVIDIA, но рынок вполне может измениться. В то же время отмечается парадоксальная ситуация, когда на рынке наблюдается и дефицит ускорителей, и простой мощностей в некоторых ЦОД одновременно. Предполагается, что дело в плохой оптимизации процессов на рынке ИИ. При этом в компании отмечают, что в данное время спрос на ИИ-приложения «почти бесконечен» и главная проблема — эффективно их использовать. Платформа Parasail для инференса максимально упрощает масштабное внедрение ИИ.
03.04.2025 [16:42], Владимир Мироненко
Ayar Labs анонсировала фотонный UCIe-чиплет TeraPHY с пропускной способностью 8 Тбит/сКомпания Ayar Labs, занимающаяся разработкой интерконнекта на базе кремниевой фотоники, анонсировала чиплет оптического I/O TeraPHY, способный обеспечить пропускную способность 8 Тбит/с и использующий оптический источник света SuperNova с поддержкой 16 длин волн. Чиплет поддерживает интерфейс Universal Chiplet Interconnect Express (UCIe), что означает возможность объединения в одном решении чиплетов от разных поставщиков. Ayar Labs отметила, что совместимость со стандартом UCIe позволяет создать более доступную и экономичную экосистему, которая упрощает внедрение передовых оптических технологий, необходимых для масштабирования рабочих ИИ-нагрузок и преодоления ограничений традиционных медных соединений. Ayar Labs сообщила, что объединила кремниевую фотонику с производственными процессами CMOS, чтобы обеспечить использование оптических соединений в форм-факторе чиплета в многочиповых корпусах. Это позволяет GPU и другим ускорителям взаимодействовать на широком диапазоне расстояний, от миллиметров до километров, при этом эффективно функционируя как единый гигантский ускоритель. Ранее компания совместно с Fujitsu показал концепт процессора A64FXс UCIe-чиплетом TeraPHY. Марк Уэйд (Mark Wade), генеральный директор и соучредитель Ayar Labs заявил, что в компании давно увидели потенциал совместно упакованной оптики (CPO), и поэтому занялись внедрением оптических решений в ИИ-приложениях. «Продолжая расширять границы оптических технологий, мы объединяем цепочку поставок, производство, а также процессы тестирования и проверки, необходимые клиентам для масштабного развёртывания этих решений», — подчеркнул он. Среди партнёров Ayar Labs крупнейшие компании отрасли, включая AMD, Intel, NVIDIA и TSMC. В последнем раунде финансирования, прошедшем в декабре прошлого года, компания привлекла $155 млн. Рыночная стоимость Ayar Labs, по оценкам, составляет $1 млрд.
03.04.2025 [12:50], Руслан Авдеев
Ближневосточный след: Cerebras Systems развеяла сомнения регулятора CFIUS в благонадёжности перед выходом на IPOCerebras Systems, разрабатывающая ИИ-ускорители, объявила о решении основных проблем с Комитетом США по иностранным инвестициям (CFIUS) перед выходом на IPO. Главным предметом беспокойства CFIUS стала связь американского стартапа с компанией G42 из ОАЭ, сообщает The Register. На G42, согласно поданным данным о доходах, пришлось более 87 % выручки Cerebras в I половине 2024 года. При этом с середины 2023 года экспорт ИИ-ускорителей в страны Ближнего Востока строго регулируется США. От разработчиков чипов из США требуется получение экспортных лицензий для продажи товаров в регионе. В результате G42 финансировала строительство ИИ-суперкомпьютеров на основе чипов Cerebras на территории США, а общая сумма проектов составила порядка $900 млн. Компания планировала получать к ним удалённый доступ. В рамках IPO G42 также собиралась купить 22 млн акций Cerebras, что, вероятно, вызвало настороженность CFIUS. Ранее G42 уже привлекала внимание американских властей, опасающихся, что закупающая большие объёмы ускорителей на Ближнем Востоке компания может работать на Китай. В результате G42 была вынуждена разорвать связи с рядом партнёров, включая Huawei, рассчитывая «умиротворить» американских регуляторов и устранить препятствия для сотрудничества с Cerebras и Microsoft.
Источник изображения: Nimisha Mekala/unsplash.com В Cerebras заявили, что компания развеяла опасения CFIUS, внеся поправки в соглашение с G42 — последняя сможет приобретать только «неголосующие» акции, поэтому дальнейшая проверка, вероятно, не потребуется. Впрочем, стороны пока не дают дополнительных комментариев. Тем не менее, руководство Cerebras отметило в одной из социальных сетей, что при тесном сотрудничестве с G42 удалось достичь урегулирования с CFIUS. Новости появились менее чем через неделю после того, как ведущие СМИ сообщили, что дебют Cerebras на фондовом рынке был отложен из-за ожидания новых ключевых назначений в администрации США. Условия IPO пока не разглашаются, но ранее сообщалось, что компания намерена привлечь до $1 млрд, а её капитализация составит $7–8 млрд. G42 останется одним из ключевых клиентов Cerebras, но стартап очевидно ориентирован на диверсификацию клиентской базы благодаря платформе «инференс как сервис» и создание масштабной инфраструктуры в США, Канаде и Франции. К концу 2025 года стартап пообещал развернуть более тысячи ускорителей в шести новых ЦОД. Хотя на первый взгляд это не так много в сравнении сотнями тысяч ускорителей, внедряемых xAI и другими компаниями, стоит отметить, что чипы Cerebras размером с целую кремниевую пластину способны обеспечивать производительность до 125 Пфлопс (FP16) — приблизительно в 62 раза выше, чем у моделей серии NVIDIA H100, применяемых для создания суперкомпьютера Colossus с Мемфисе (Теннесси).
03.04.2025 [11:38], Руслан Авдеев
Российская WildTeam выступила генеральным проектировщиком ЦОД общей ёмкостью 350 МВтКомпания WildTeam сегодня является генеральным проектировщиком ряда российских дата-центров общей ёмкостью 350 МВт. Эти объекты должны служить хранилищами, а также инструментами обработки и передачи данных для крупнейших технологических структур Российской Федерации, сообщает пресс-служба компании. WildTeam работает на рынке недвижимости с 2018 года и успешно завершила более 200 проектов — как коммерческих, так и жилых и общественных. Ряд спроектированных ЦОД находятся в Подмосковье — Домодедово и Дубне, а также регионах, расположенных недалеко от российской столицы. В компании утверждают, что проектирование осуществлялось с учётом актуальных требований к надёжности и энергоэффективности объектов. Компания активно внедряет в своих решениях технологии фрикулинга — охлаждения серверов с использованием обычного окружающего воздуха. Это позволяет снизить показатель PUE до 1,15, благодаря чему стоимость эксплуатации ЦОД уменьшается на «десятки процентов». В условиях высоких температур и плотной вычислительной нагрузки дополнительно применяется адиабатическое охлаждение с мелкодисперсным распылением воды и DX (Direct Expansion) системы.
Источник изображения: WildTeam Более того, тепло ЦОД используется для отопления административных помещений, что позволяет экономить до 700 кВт электроэнергии, а эксплуатация объектов становится более экологичной. Вместо традиционных вентиляторных установок применяются строительные вентмашины, что упрощает обслуживание оборудования, ускоряет его ремонт и снижает зависимость операторов от дорогих комплектующих. Дополнительно компания разрабатывает концепции «высокоплотных» ИИ-ЦОД с системами жидкостного охлаждения (СЖО), что обеспечивает оптимальную производительность ресурсоёмких систем нового поколения. Бесперебойное электроснабжение обеспечивается благодаря резервным источникам питания и использованию интеллектуальных систем управления электропитанием. В компании комбинируют ИБП, резервные генераторы, источники возобновляемой энергии и передовые системы мониторинга. Критически важные системы обеспечены питанием даже в случае отказа одной из ДГУ. В результате, даже при перебоях во внешней магистральной электросети и выходе из строя резервных линий, работоспособность объектов сохраняется. ЦОД соответствуют стандартам Uptime Institute Tier III и Tier IV. В WildTeam сообщают, что каждый дата-центр её разработки оснащён административно-бытовыми вспомогательными комплексами с офисами, спортивными залами, переговорными, техническими зонами и другими объектами. В компании ожидают, что её ЦОД станут ориентиром для проектирования современной цифровой инфраструктуры. Инфраструктура ЦОД и сопутствующая энергетика уже в большом дефиците в России. В январе сообщалось, что цены на услуги оборудования в российских ЦОД растут, а в конце февраля поступили данные о том, что в стране скоро может наступить дефицит энергии для обучения ИИ.
02.04.2025 [11:50], Руслан Авдеев
Царь-чипы с интегрированной фотоникой: Cerebras Systems и Ranovus выбраны DARPA для создания вычислительной платформы нового поколенияИИ-стартап Cerebras Systems выбран американским военно-техническим управлением DARPA для разработки высокопроизводительной вычислительной системы нового поколения. Cerebras объединит собственные ИИ-ускорители и фотонные CPO-интерконнекты Ranovus для обеспечения высокой производительности при малом энергопотреблении, сообщает пресс-центр Cerebras. Комбинация технологий двух компаний позволит обеспечить в реальном времени моделирование сложных физических процессов и выполнение масштабных ИИ-задач. С учётом успеха программы DARPA Digital RF Battlespace Emulator (DRBE), в рамках которой Cerebras уже разрабатывает передовой суперкомпьютер для радиочастотной эмуляции, именно Cerebras и Ranovus были выбраны для новой инициативы, позволяющей объединить вычислительные продукты Cerebras с первыми в отрасли фотонными интерконнектами Ranovus. Решение крайне актуальное, поскольку двумя ключевыми вопросами для современных вычислительных систем являются проблемы с памятью и обменом данных между ускорителями и иной серверной инфраструктурой — вычислительные потребности растут быстрее, чем возможности памяти или IO-систем ввода-вывода. Как утверждают в Cerebras, её WSE-чипы имеют в 7 тыс. раз большую пропускную способность, чем классические ускорители, что даёт самый быстрый в мире инференс и самое быстрое моделирование молекулярных процессов.
Источник изображения: Cerebras В рамках нового плана DARPA стартап Cerebras будет использовать интерконнект Ranovus, что позволит получить производительность, недоступную даже для крупнейших суперкомпьютерных кластеров современности. При этом энергопотребление будет значительно ниже, чем у самых современных решений с использованием коммутаторов. Последние являются одними из самых энергоёмких компонентов в современных ИИ-системах или суперкомпьютерах. Утверждается, что комбинация новых технологий двух компаний позволит искать решения самых сложных задач в реальном времени, будь то ИИ или сложное моделирование физических процессов, на недостижимом сегодня уровне. Подчёркивается, что оставаться впереди конкурентов — насущная необходимость для обороны США, а также местного коммерческого сектора. В частности, это открывает огромные возможности для работы ИИ в режиме реального времени — от обработки данных с сенсоров до симуляции боевых действий и управления боевыми или коммерческими роботами. В Ranovus заявили, что платформа Wafer-Scale Co-Packaged Optics в 100 раз производительнее аналогичных современных решений, что позволяет значительно повысить эффективность ИИ-кластеров, и значительно энергоэффективнее продуктов конкурентов. Партнёрство компаний позволит задать новый стандарт для суперкомпьютерной и ИИ-инфраструктуры, решая задачи роста спроса на передачу и обработку данных и давая возможность реализовать военное и коммерческое моделирование нового поколения. Помимо использования в целях американских военных, гигантские ИИ-чипы Cerebras применяются и оборонными ведомствами других стран. Так, весной 2024 года сообщалось, что продукты компании помогут натренировать ИИ для военных Германии.
01.04.2025 [16:05], Руслан Авдеев
В Лондоне появится экобезопасный ЦОД AWS для ленточных накопителейНа территории технопарка Silverdale Industrial Estate на западе «Большого Лондона» в ближайшие годы появится экобезопасный и энергоэффективный дата-центр компании Amazon (AWS). Проект разрабатывается архитектурным бюро MCA Architects для инвесторов из Mulhaven Properties и представляет собой передовое решение для хранения данных, сообщает портал Blocks & Files. Как сообщается в презентации MCA Architects, предусмотрена полная рекультивация участка площадью 0,44 га — сейчас там находится пустой складской комплекс. На его месте появятся современные здания. В частности, речь идёт об основном здании высотой более 13 м (несколько этажей). Рядом разместится офисное здание высотой около 6 м. Общая площадь застройки — около 3200 м². Будут созданы раздельные въезды и выезды для грузового транспорта. Также предусмотрено внедрение современной системы безопасности и ограждений высотой 2,3–4 м.
Источник изображения: MCA Architects Новый дата-центр предназначен для размещения ленточных накопителей вместо традиционных серверов. Также ЦОД будет получит резервный генератор мощностью 1,08 МВт. Предусмотрено использование системы поддержания микроклимата (температура 16–25 °C, влажность 20–50 %). Водопотребление в сравнении с обычным ЦОД крайне невелико — менее 150 м³ в год, такими объёмами можно буквально пренебречь при расчётах. Особое внимание уделили минимизации воздействия на окружающую среду. Так, выбросы углекислого газа должны быть уменьшены на 15 % в сравнении с нормами Part L 2021 Building Regulations. Одной из главных целей является получение сертификата BREEAM Excellent, одного из самых престижных в области экологического строительства. Дополнительно планируется сбор дождевой воды, использование засухостойких растений, вертикального озеленения фасадов и др. Проект имеет для региона большие перспективы. Общий объём инвестиций AWS в связанные с ЦОД процессы в Великобритании в следующие пять лет составит £8 млрд. В целом с 2010 года инвестиции Amazon в Великобритании превысили £56 млрд. Проект уже вызвал интерес экспертного сообщества. Он демонстрирует возможности интеграции высокотехнологичной инфраструктуры в промышленную застройку и использования одних из самых передовых экорешений в Европе. Приветствуют новые инвестиции и местные власти. Пока проект находится на стадии согласования, строительство может начаться уже в 2025 году, а ввод объекта в эксплуатацию — в 2027 году. Это лишь один из расширяющейся сети ЦОД AWS в Великобритании, включающей уже несколько крупных кампусов, в том числе строящийся к югу от участка комплекс. В январе Trendfocus сообщала, что по итогам 2024 года спрос на ленточные накопители вырос на 12 %.
31.03.2025 [14:20], Сергей Карасёв
На заводе «ЦТС» в Калининградской области начали выпускать серверные платыНа предприятии АО «НПО «Цифровые Телевизионные Системы» («ЦТС»; входит в холдинг GS Group) в Калининградской области начато производство средних серверных плат с размерами 480 × 430 мм. Как отмечает генеральный директор предприятия, это изделия повышенной сложности, насчитывающие более 5 тыс. компонентов. Заказчиком выступает холдинг Fplus — российский поставщик электроники и оборудования для построения IT-инфраструктуры. Для организации выпуска плат была выполнена перекомпоновка оборудования на производственных линиях в рамках масштабной программы модернизации, в которую инвестировано 182 млн руб. Дело в том, что изготовление изделий указанного размера сопряжено с рядом сложностей. В частности, при нагревании такие печатные платы прогибаются под собственной массой. Кроме того, цикл сборки должен занимать не более трёх суток — в противном случае возникает риск чрезмерного окисления контактных площадок, что приводит к дефектам пайки. С целью решения указанных проблем на заводе «ЦТС» внедрено новейшее оборудование. Например, чтобы избежать искривления поверхности плат при нагревании, на предприятии разработаны специальные паяльные рамки. За один цикл возможно производить установку всех необходимых компонентов, что сокращает сроки изготовления продукции. В целом, мощности завода позволяют производить до 9 тыс. средних серверных плат ежемесячно. «Рассчитываем, что услуга по сборке средних серверных плат позволит нам укрепить позиции на рынке контрактного производства и расширить пул заказчиков», — говорит глава «ЦТС». |
|

