Материалы по тегу: компьютер

04.10.2022 [14:29], Татьяна Золотова

Российского производителя суперкомпьютеров «Т-платформы» окончательно признали банкротом

Арбитражный суд Москвы признал российского производителя суперкомпьютеров «Т-платформы» банкротом, согласно картотеке судебных дел. Причиной стало отсутствие у компании имущества в количестве, достаточном для покрытия всех имеющихся долгов перед кредиторами, сообщает CNews.

Рассмотрение дела длилось год – с октября 2021 года. В сентябре 2022 года банкротом стал также основатель «Т-платформ» Всеволод Опанасенко. Сейчас он находится под следствием и может быть признан виновным в мошенничестве в особо крупном размере.

В материалах суда сказано, что восстановление платежеспособности компании невозможно. Отдельно в решении суда указано, что в результате рассмотрения иска «Т-платформы» о собственном банкротстве признаки преднамеренного и/или фиктивного банкротства выявлены не были. Конкурсным управляющим назначен Сергей Кононов из московской саморегулируемой организации «Союз менеджеров и арбитражных управляющих».

Череда проблем, приведших в итоге к банкротству «Т-платформ», началась в марте 2019 года с ареста Всеволода Опанасенко. Он был задержан по делу о поставке компьютеров в российское МВД на сумму 357,1 млн руб. К концу года компания, по сути, прекратила реальную деятельность. В конце осени 2020 года «Т-платформы» возглавил Кирилл Алифанов, компания начала набирать штат, но уже в октябре следующего года подала заявление о признании себя банкротом. В декабре 2021 года столичный Арбитраж вынес решение о введении в отношении «Т-платформ» процедуры внешнего наблюдения.

Постоянный URL: http://servernews.ru/1075241
26.09.2022 [13:21], Андрей Крупин

Суперкомпьютеры «Яндекса» сохранили лидерство в рейтинге TOP 50 самых мощных вычислительных систем СНГ

Научно-исследовательский вычислительный центр Московского государственного университета имени М.В. Ломоносова и Межведомственный суперкомпьютерный центр Российской академии наук опубликовали обновлённую редакцию списка TOP 50 самых мощных компьютеров стран СНГ (фактически там только суперкомпьютеры РФ).

Лидирующие позиции в рейтинге сохранили установленные в дата-центрах «Яндекса» вычислительные комплексы «Червоненкис» (1 место, пиковая производительность 29,4 Пфлопс), «Галушкин» (2 позиция, производительность в пределе 20,6 Пфлопс) и «Ляпунов» (3 место, пиковая производительность 20 Пфлопс).

На четвёртом месте списка остался развёрнутый в IT-инфраструктуре «Сбера» суперкомпьютер «Кристофари Нео» с пиковой производительностью в 14,9 Пфлопс. На пятой позиции разместился также принадлежащий «Сберу» вычислительный комплекс «Кристофари» (пиковая производительность 8,8 Пфлопс). В основу всех входящих в пятёрку лидеров машин положены графические ускорители NVIDIA A100 с интерконнектом InfiniBand.

Суммарная пиковая производительность 50 систем списка составила 120,6 Пфлопс (было 120,2 Пфлопс в предыдущей редакции списка). Всего за полгода в списке появились три новых суперкомпьютера, занявшие 20, 39 и 49 места. По количеству систем, входящих в список, лидирует компания Hewlett-Packard Enterprise — 11 систем (12 в прошлой редакции) и группа компаний РСК — 11 (11), далее компания «Т-Платформы» — 7 (8).

 Источник изображения: «Яндекс»

Источник изображения: «Яндекс»

С полной версией рейтинга 50 самых мощных суперкомпьютеров СНГ можно ознакомиться на сайте top50.supercomputers.ru.

Следующая редакция списка TOP 50 самых мощных компьютеров России и СНГ будет объявлена 28 марта 2023 года на международной научной конференции «Параллельные вычислительные технологии (ПаВТ) 2023».

Постоянный URL: http://servernews.ru/1074809
05.09.2022 [23:00], Алексей Степин

Tesla рассказала подробности о чипах D1 собственной разработки, которые станут основой 20-Эфлопс ИИ-суперкомпьютера Dojo

Компания Tesla уже анонсировала собственный, созданный в лабораториях компании процессор D1, который станет основой ИИ-суперкомпьютера Dojo. Нужна такая система, чтобы создать для ИИ-водителя виртуальный полигон, в деталях воссоздающий реальные ситуации на дорогах. Естественно, такой симулятор требует огромных вычислительных мощностей: в нашем мире дорожная обстановка очень сложна, изменчива и включает множество факторов и переменных.

До недавнего времени о Dojo и D1 было известно не так много, но на конференции Hot Chips 34 было раскрыто много интересного об архитектуре, устройстве и возможностях данного решения Tesla. Презентацию провел Эмиль Талпес (Emil Talpes), ранее 17 лет проработавший в AMD над проектированием серверных процессоров. Он, как и ряд других видных разработчиков, работает сейчас в Tesla над созданием и совершенствованием аппаратного обеспечения компании.

 Изображения: Tesla (via ServeTheHome)

Изображения: Tesla (via ServeTheHome)

Главной идеей D1 стала масштабируемость, поэтому в начале разработки нового чипа создатели активно пересмотрели роль таких традиционных концепций, как когерентность, виртуальная память и т.д. — далеко не все механизмы масштабируются лучшим образом, когда речь идёт о построении действительно большой вычислительной системы. Вместо этого предпочтение было отдано распределённой сети хранения на базе SRAM, для которой был создан интерконнект, на порядок опережающий существующие реализации в системах распределённых вычислений.

Основой процессора Tesla стало ядро целочисленных вычислений, базирующееся на некоторых инструкциях из набора RISC-V, но дополненное большим количеством фирменных инструкций, оптимизированных с учётом требований, предъявляемых ядрами машинного обучения, используемыми компанией. Блок векторной математики был создан практически с нуля, по словам разработчиков.

Набор инструкций Dojo включает в себя скалярные, матричные и SIMD-инструкции, а также специфические примитивы для перемещения данных из локальной памяти в удалённую, равно как и семафоры с барьерами — последние требуются для согласования работы c памятью во всей системе. Что касается специфических инструкций для машинного обучения, то они реализованы в Dojo аппаратно.

Первенец в серии, чип D1, не является ускорителем как таковым — компания считает его высокопроизводительным процессором общего назначения, не нуждающимся в специфических ускорителях. Каждый вычислительный блок Dojo представлен одним ядром D1 с локальной памятью и интерфейсами ввода/вывода. Это 64-бит ядро суперскалярно.

Более того, в ядре реализована поддержка многопоточности (SMT4), которая призвана увеличить производительность на такт (а не изолировать разные задачи друг от друга), поэтому виртуальную память данная реализация SMT не поддерживает, а механизмы защиты довольно ограничены в функциональности. За управление ресурсами Dojo отвечает специализированный программный стек и фирменное ПО.

64-бит ядро имеет 32-байт окно выборки (fetch window), которое может содержать до 8 инструкций, что соответствует ширине декодера. Он, в свою очередь, может обрабатывать два потока за такт. Результат поступает в планировщики, которые отправляют его в блок целочисленных вычислений (два ALU) или в векторный блок (SIMD шириной 64 байт + перемножение матриц 8×8×4).

У каждого ядра D1 есть SRAM объёмом 1,25 Мбайт. Эта память — не кеш, но способна загружать данные на скорости 400 Гбайт/с и сохранять на скорости 270 Гбайт/с, причём, как уже было сказано, в чипе реализованы специальные инструкции, позволяющие работать с данными в других ядрах Dojo. Для этого в блоке SRAM есть свои механизмы, так что работа с удалённой памятью не требуют дополнительных операций.

Что касается поддерживаемых форматов данных, то скалярный блок поддерживает целочисленные форматы разрядностью от 8 до 64 бит, а векторный и матричный блоки — широкий набор форматов с плавающей запятой, в том числе для вычислений смешанной точности: FP32, BF16, CFP16 и CFP8. Разработчики D1 пришли к использованию целого набора конфигурируемых 8- и 16-бит представлений данных — компилятор Dojo может динамически изменять значения мантиссы и экспоненты, так что система может использовать до 16 различных векторных форматов, лишь бы в рамках одного 64-байт блока данных он не менялся.

Как уже упоминалось, топология D1 использует меш-структуру, в которой каждые 12 ядер объединены в логический блок. Чип D1 целиком представляет собой массив размером 18×20 ядер, однако доступны лишь 354 ядра из 360 присутствующих на кристалле. Сам кристалл площадью 645 мм2 производится на мощностях TSMC с использованием 7-нм техпроцесса. Тактовая частота составляет 2 ГГц, общий объём памяти SRAM — 440 Мбайт.

Процессор D1 развивает 362 Тфлопс в режиме BF16/CFP8, в режиме FP32 этот показатель снижается до 22 Тфлопс. Режим FP64 векторными блоками D1 не поддерживается, поэтому для многих традиционных HPC-нагрузок данный процессор не подойдёт. Но Tesla создавала D1 для внутреннего использования, поэтому совместимость её не очень волнует. Впрочем, в новых поколениях, D2 или D3, такая поддержка может появиться, если это будет отвечать целям компании.

Каждый кристалл D1 имеет 576-битный внешний интерфейс SerDes с совокупной производительностью по всем четырём сторонам, составляющей 8 Тбайт/с, так что узким местом при соединении D1 он явно не станет. Этот интерфейс объединяет кристаллы в единую матрицу 5х5, такая матрица из 25 кристаллов D1 носит название Dojo training tile.

Этот тайл выполнен как законченный термоэлектромеханический модуль, имеющий внешний интерфейс с пропускной способностью 4,5 Тбайт/с на каждую сторону, совокупно располагающий 11 Гбайт памяти SRAM, а также собственную систему питания мощностью 15 кВт. Вычислительная мощность одного тайла Dojo составляет 9 Пфлопс в формате BF16/CFP8. При таком уровне энергопотребления охлаждение у Dojo может быть только жидкостное.

Тайлы могут объединяться в ещё более производительные матрицы, но как именно физически организован суперкомпьютер Tesla, не вполне ясно. Для связи с внешним миром используются блоки DIP — Dojo Interface Processors. Это интерфейсные процессоры, посредством которых тайлы общаются с хост-системами и на долю которых отведены управляющие функции, хранение массивов данных и т.п. Каждый DIP не просто выполняет IO-функции, но и содержит 32 Гбайт памяти HBM (не уточняется, HBM2e или HBM3).

DIP использует полностью свой транспортный протокол (Tesla Transport Protocol, TTP), разработанный в Tesla и обеспечивающий пропускную способность 900 Гбайт/с, а поверх Ethernet — 50 Гбайт/с. Внешний интерфейс у карточек — PCI Express 4.0, и каждая интерфейсная карта несёт пару DIP. С каждой стороны каждого ряда тайлов установлено по 5 DIP, что даёт скорость до 4,5 Тбайт/с от HBM-стеков к тайлу.

В случаях, когда во всей системе обращение от тайла к тайлу требует слишком много переходов (до 30 в случае обращения от края до края), система может воспользоваться DIP, объединённых снаружи 400GbE-сетью по топологии fat tree, сократив таким образом, количество переходов до максимум четырёх. Пропускная способность в этом случае страдает, но выигрывает латентность, что в некоторых сценариях важнее.

В базовой версии суперкомпьютер Dojo V1 выдаёт 1 Эфлопс в режиме BF16/CFP8 и может загружать непосредственно в SRAM модели объёмом до 1,3 Тбайт, ещё 13 Тбайт данных можно хранить в HBM-сборках DIP. Следует отметить, что пространство SRAM во всей системе Dojo использует единую плоскую адресацию. Полномасштабная версия Dojo будет иметь производительность до 20 Эфлопс.

Сколько сил потребуется компании, чтобы запустить такого монстра, а главное, снабдить его рабочим и приносящим пользу ПО, неизвестно — но явно немало. Известно, что система совместима с PyTorch. В настоящее время Tesla уже получает готовые чипы D1 от TSMC. А пока что компания обходится самым большим в мире по числу установленных ускорителей NVIDIA ИИ-суперкомпьютером.

Постоянный URL: http://servernews.ru/1073480
22.08.2022 [15:48], Владимир Мироненко

Облачный сервис Microsoft Azure Quantum первым получил новейший квантовый компьютер IonQ Aria

Компания IonQ, специализирующаяся на разработках в области квантовых вычислений, объявила о доступности IonQ Aria, своего первого коммерчески доступного квантового компьютера, исключительно на платформе Azure Quantum. Aria — вторая система IonQ, появившаяся на платформе Azure Quantum после запуска IonQ Harmony в конце 2019 года.

Глава IonQ отметил, что доступность IonQ Aria и IonQ Harmony в Azure Quantum даёт корпоративным клиентам и исследовательским учреждениям возможность выбора квантовой системы, которая лучше всего подходит для их конкретных потребностей. Aria, по словам IonQ, является сейчас лучшим из публично анонсированных квантовых компьютеров в мире с показателем #AQ (Algorithmic Qubit), равным 23. Более высокий показатель #AQ потенциально может обеспечить более быструю разработку квантовых симуляций и алгоритмов, чем предыдущее поколение квантовых компьютеров.

 Источник изображения: IonQ

Источник изображения: IonQ

Избранные клиенты уже начали использовать систему для разработки алгоритмов, снижающих финансовые риски, моделирующих химические реакции в батареях электромобилей и улучшающих классификацию изображений для разрабатываемых автономных транспортных средств. Среди областей применения также называются машинное обучение и логистика. Ежемесячная подписка на доступ к IonQ Aria в Azure Quantum включает сопровождение, консультационные услуги и техническую поддержку. Также Azure предлагает исследователям гранты на сумму до $10 тыс. для доступа к системам IonQ, Honeywell и Rigetti.

В последние годы резко вырос спрос на квантовые системы, которые могут помочь справиться с ранее нерешаемыми задачами. В первой половине этого года IonQ сообщила о коммерческом партнёрстве с Hyundai Motors с целью разработки более эффективных аккумуляторов для электромобилей, а также использования квантового машинного обучения для систем распознавания трёхмерных объектов.

Постоянный URL: http://servernews.ru/1072603
15.08.2022 [19:25], Сергей Карасёв

Tesla похвасталась седьмым по величине GPU-суперкомпьютером в мире

Тим Заман, руководитель отдела искусственного интеллекта и средств автопилотирования Tesla, сообщил о том, что компания Илона Маска в настоящее время эксплуатирует седьмой по величине суперкомпьютер в мире. Правда, речь идёт лишь о числе используемых в системе ускорителей.

По словам господина Замана, вычислительный комплекс Tesla недавно подвергся апгрейду. В результате общее число задействованных акселераторов NVIDIA A100 (80 Гбайт) выросло до 7360 шт. В прошлом году Tesla представила свой новый кластер, насчитывающий 720 узлов, каждый из которых оборудован восемью ускорителями A100. Таким образом, в общей сложности на момент анонса использовались 5760 акселераторов. Заявленное быстродействие достигало 1,8 Эфлопс (FP16).

 Источник изображения: Tim Zaman

Источник изображения: Tim Zaman

В рамках обновления система получила ещё 1600 шт. таких же ускорителей. Результирующую производительность Tesla пока не раскрывает, но она могла увеличиться примерно на четверть. Система предназначена для обучения ИИ-моделей, отвечающих за работу средств автопилотирования в электромобилях компании. Попутно Tesla разрабатывает суперкомпьютер Dojo. Он будет оснащён собственными 7-нм чипами D1 (FP32). Каждый чип будет иметь площадь 645 мм2 и содержать 50 млрд транзисторов.

Постоянный URL: http://servernews.ru/1072174
12.08.2022 [12:48], Руслан Авдеев

Испанская провинция Астурия разместит в заброшенных шахтах суперкомпьютеры

Правительство северо-восточного испанского региона Астурии рассчитывает перепрофилировать заброшенные шахты для использования в качестве площадок для строительства ЦОД, способных включиться в национальную сеть суперкомпьютеров Spanish Supercomputing Network.

Власти провинции намерены использовать сеть заброшенных шахт общей протяжённостью порядка 5 тыс. км для размещения IT-инфраструктуры суперкомпьютеров. В ходе недавнего визита на возможное место строительства министр науки, инноваций и университетов и директор Национального суперкомпьютерного центра (он же Барселонский суперкомпьютерный центр) посетили возможные места размещения мощностей в муниципалитетах Альер и Мьерес, а также Инновационный центр Университета Овьедо, тоже являющийся ключевым элементом проекта.

 Источник: правительство Астурии

Источник: правительство Астурии

Целью визитов являлась оценка возможности размещения под землёй суперкомпьютерной инфраструктуры, что поможет восстановлению старых шахт для повторного использования, минимизирует ущерб экологии благодаря сокращению расходов на содержание крупной вычислительной наземной инфраструктуры, и, наконец, обеспечит физическую безопасность оборудования, хранящего большие объёмы данных — посторонним будет в буквальном смысле трудно до них добраться.

Более того, старые галереи уже имеют многие элементы для размещения IT-оборудования — системы вентиляции и энергоснабжения, запасы воды и довольно стабильный температурный уровень в штольнях. Местные власти рассчитывают, что подобная площадка позволит дополнить суперкомпьютерную сеть Spanish Supercomputing Network (RES).

 Источник изображения: Jordan Harrison/unsplash.com

Источник изображения: Jordan Harrison/unsplash.com

Сформированная в 2007 году испанским Министерством образования и науки, RES представляет собой серию объектов большой вычислительной мощности, доступ к которым обеспечен испанским исследовательским группам. Сегодня RES включает 14 учреждений, располагающих 16 суперкомпьютерами и 9 объектами, обеспечивающими различные сервисы обработки данных. Вскоре частью сети станет система MareNostrum-5, расположенная в Барселонском суперкомпьютерном центре.

Использование шахт для строительства ЦОД и суперкомпьютеров — весьма распространённая практика, причём объекты активно используются как легальными, так и нелегальными игроками рынка. Так, в конце прошлого года о намерении строить суперкомпьютеры и облачные хранилища на базе подземной площадки Lefdal Mine объявила норвежская НКО Sigma2, а в 2019 году германская полиция закрыла нелегальный дата-центр, располагавшийся в бывшем бункере НАТО.

Постоянный URL: http://servernews.ru/1072054
10.08.2022 [22:05], Владимир Мироненко

На пути к Aurora: запущен «тренировочный» суперкомпьютер Polaris

Аргоннская национальная лаборатория (ANL) Министерства энергетики США объявила о доступности суперкомпьютера Polaris, ранний вариант которого занял 14-е место в последней версии списка TOP500. Он будет использоваться для проведения научных исследований и в качестве испытательного стенда для 2-Эфлопс суперкомпьютера Aurora, запуск которой намечен на ближайшие месяцы. Правда, аппаратно Aurora и Polaris отличаются.

Созданная HPE система Polaris состоит из 560 узлов Apollo 6500, каждый из которых оснащён процессором AMD EPYC Milan, четырьмя ускорителями NVIDIA A100 (40 Гбайт) и 512 Гбайт DDR4-памяти. Эти узлы объединены в сеть интерконнектом HPE Slingshot 10 (осенью он будет обновлен до Slingshot 11) и подключены к сдвоенному 100-Пбайт Lustre-хранилищу (Grand и Eagle). Заявленная пиковая производительность должна составить 44 Пфлопс.

 Фото: ANL

Фото: ANL

«Polaris примерно в четыре раза быстрее нашего суперкомпьютера Theta, что делает его самым мощным компьютером в Аргонне на сегодняшний день», — отметил Майкл Папка (Michael Papka), директор Argonne Leadership Computing Facility (ALCF). Он добавил, что возможности Polaris позволят пользователям выполнять моделирование, анализ данных и ИИ-задачи с такими масштабом и скоростью, которые были невозможны с предыдущими вычислительными системами.

Помимо работы над подготовкой к запуску Aurora, суперкомпьютер Polaris будет обслуживать внутренние потребности лаборатории, например, работу с комплексом Advanced Photon Source (APS) X-ray. «Благодаря тесной интеграции суперкомпьютеров ALCF с APS, CNM и другими экспериментальными установками мы можем помочь ускорить проведение анализа данных и предоставить информацию, которая позволит исследователям управлять своими экспериментами в режиме реального времени», — заявил Майкл Папка.

Постоянный URL: http://servernews.ru/1071938
06.08.2022 [16:15], Сергей Карасёв

Мини-компьютер Firefly Station M3 оснащён восьмиядерной SoC Rockchip RK3588S и 16 Гбайт RAM

Компания Firefly анонсировала компактный ПК Station M3, заключённый в корпус с габаритами 96,6 × 73 × 32,8 мм. В основу новинки положена аппаратная платформа Rockchip, а в качестве операционной системы может применяться Station OS (на основе Android), Android 12 или Ubuntu 20.04.

Установлен процессор RK3588S с восемью ядрами — квартеты Cortex-A76 и Cortex-A55. Максимальная тактовая частота составляет 2,4 ГГц. Чип содержит графический ускоритель Arm Mali-G610 MP4 с поддержкой OpenGL ES 3.2, OpenCL 2.2 и Vulkan 1.1, а также нейропроцессорный модуль NPU с производительностью до 6 TOPS. Возможно декодирование видео в формате 8Kp60 (H.265/VP9/AVS2), 8Kp60 (H.264 AVC/MVC), 4Kp60 (AV1) и 1080p60 (MPEG-2/-1/VC-1/VP8).

 Источник изображений: Firefly

Источник изображений: Firefly

Объём оперативной памяти LPDDR4 достигает 16 Гбайт, вместимость встроенного флеш-модуля eMMC — 128 Гбайт. При необходимости можно добавить твердотельный модуль M.2 2242 с интерфейсом SATA 3.0 или PCIe 2.0. Имеется слот для карты microSD. Мини-компьютер располагает интерфейсом HDMI 2.1, портами USB Type-C (DP1.4), USB 3.0 и USB 2.0, 3,5-мм аудиогнездом и 1GbE-портом RJ45. Поддерживается одновременный вывод двух видеопотоков 8K. В оснащение включены адаптеры Wi-Fi 5 802.11b/g/n/ac и Bluetooth 4.2.

Диапазон рабочих температур — от -20 до +60 °C. Энергопотребление не превышает 14,4 Вт. Дополнительную информацию об устройстве можно найти на этой странице. Цена пока не раскрывается. Однако новинка вряд ли будет недорогой, поскольку в её основе, судя по всему, лежит плата ROC-RK3588S-PC, которая сама по себе стоит от $219 до $409 в зависимости от объёма памяти.

Постоянный URL: http://servernews.ru/1071693
02.08.2022 [14:03], Владимир Мироненко

Индия займётся самостоятельным выпуском серверов для своих суперкомпьютеров

Центр развития передовых вычислений (C-DAC) Департамента электроники и информационных технологий Министерства коммуникаций и информационных технологий Индии заключил контракт с местным производителем электроники VVDN Technologies на выпуск разработанных в Индии HPC-серверов RUDRA для суперкомпьютеров семейства PARAM.

Как пишет The Register, пока не уточняется, в каких суперкомпьютерах PARAM будут использоваться серверы местного производства. В марте 2022 года в Индии запустили две HPC-системы семейства PARAM: Ganga с 312 узлами (1,67 Пфлопс) и Shakti с 404 узлами (1,6 Пфлопс). C-DAC планирует построить 24 суперкомпьютера. На сегодняшний день им было запущено 11 суперкомпьютерных систем.

Компания VVDN специализируется на выпуске бытовой техники, планшетов и телекоммуникационного оборудования, включая оборудование 5G. Как сообщается на сайте VVDN, компания обладает опытом проектирования, разработки и производства серверов. VVDN сообщает, что имеет SMT-линии с возможностью обработки плат размером до 850 × 560 мм, а также оборудование, необходимое для выпуска серверов.

 Источник изображения: VVDN

Источник изображения: VVDN

VVDN уже участвует в государственных программах импортозамещения и локализации производства ИТ-оборудования, серверов, ноутбуков, планшетов, настольных ПК и т. д., а также в программах в области производства телекоммуникационного и сетевого оборудования, бытовой техники и компонентов для автомобилей и т.д. Кроме того, у компании есть собственные наработки в области корпоративного ПО.

Анонсированный сервер RUDRA представляет собой стандартное решение в форм-факторе 1U или 2U, поддерживающее установку процессоров Intel Xeon Сascade Lake, пары ускорителей и памяти DDR4. VVDN будет заниматься производством плат и штамповкой корпусов, а также тестированием, валидацией и сертификацией серверных платформ.

Постоянный URL: http://servernews.ru/1071347
27.07.2022 [19:00], Сергей Карасёв

СПбПУ и РСК создадут Центр компетенций для разработки новых промышленных решений на базе передовых цифровых технологий

Санкт-Петербургский политехнический университет Петра Великого (СПбПУ) и группа компаний РСК подписали меморандум о сотрудничестве. Документ предполагает формирование Центра компетенций для разработки новых промышленных решений с применением передовых цифровых технологий. Меморандум был сформирован во время переговоров, проведенных на выставке «Иннопром 2022».

Сотрудничество будет вестись по нескольким направлениям. В частности, стороны разработают план развития суперкомпьютерных вычислений в СПбПУ в рамках совместных проектов. Предполагается, что развитие ИТ-инфраструктуры университета будет способствовать решению наукоёмких мультидисциплинарных задач в области цифрового инжиниринга.

В СПбПУ располагается суперкомпьютерный центр «Политехнический» — один из самых мощных и наиболее инновационных в России центров высокопроизводительных вычислений (НРС). Технологической основой суперкомпьютерных систем, установленных в центре, является универсальное высокоплотное и энергоэффективное решение «РСК Торнадо» со 100-% жидкостным охлаждением на «горячей воде». Суммарная пиковая производительность систем в настоящее время составляет 1,812 Пфлопс.

 Фото: СПбПУ

Фото: СПбПУ

Отмечается, что использование HPC-систем необходимо для реализации проектов в двигателестроении, авиастроении, энергомашиностроении, нефтегазовом, атомном, тяжёлом и специальном машиностроении, приборостроении, судостроении, автомобилестроении, ракетной и космической техники и др. Основной задачей Центра компетенции будет применение оптимизационных методов для разработки новых промышленных решений с помощью применения передовых отечественных программно-аппаратных комплексов.

«Это, в свою очередь, будет способствовать решению наукоемких задач в области цифрового инжиниринга, разработки цифровых двойников высокотехнологичных изделий промышленности, применению цифровых и производственных технологий, аддитивных технологий, технологий сварки и защитных покрытий, разработанных СПбПУ. Кроме того, Центр компетенции будет заниматься формированием стратегии развития национального технологического суверенитета в области разработки и применения систем автоматизированного проектирования (CAD) и инжиниринга (CAE) с использованием высокопроизводительных вычислений (HPC)», — пояснил Егор Дружинин, технический директор группы компаний РСК.

Постоянный URL: http://servernews.ru/1070982
Система Orphus