Материалы по тегу: hpc
03.05.2025 [16:00], Руслан Авдеев
В Рио-де-Жанейро построят крупнейший в Латинской Америке кампус ЦОД Rio AI CityВ Рио-де-Жанейро объявлено о строительстве нового ИИ ЦОД. После завершения проекта кампус дата-центров станет крупнейшим в Латинской Америке и одним из крупнейших в мире, сообщает Datacenter Dynamics. Кампус Rio AI City расположится на территории Olympic Park. Первые 1,8 ГВт намерены ввести в строй к 2027 году, а к 2032 году возможно расширение до 3 ГВт. Ожидается, что в кампусе будут обеспечены условия для развёртывания новейших суперкомпьютеров. По словам мэра города, анонсировавшего проект, главная цель строительства нового кампуса — повысить роль Рио в развитии ИИ и закрепить за городом статус «столицы инноваций Латинской Америки». Город намерен стать движущей силой «ИИ-революции» и обеспечить гарантии того, что развитие искусственного интеллекта пойдёт обществу на благо. Мэр пообещал, что кампус будет целиком обеспечиваться «чистой» энергией и получит «неограниченный» запас воды для охлаждения оборудования. Кампус напрямую связан с проектом Porto Maravilha, предполагающим восстановление в городе старого портового района. По словам муниципальных властей, район станет центром экоустойчивых инноваций, а вычислительные мощности Rio AI City станут использовать для поддержки роста локальных стартапов. По данным Data Center Map, в Рио-де-Жанейро в настоящее время действует 21 дата-центр. В городе работают операторы Ascenty, Elea и Equinix. В прошлом месяце Equinix запустила в городе свой третий ЦОД — RJ3. Буквально на днях появилась информация, что ByteDance рассматривает строительство в Бразилии дата-центра TikTok, но он будет находиться в отдалении от Рио, в штате Сеара.
28.04.2025 [14:48], Сергей Карасёв
ИИ-суперкомпьютер в чемодане — GigaIO Gryf обеспечит производительность до 30 ТфлопсКомпания GigaIO объявила о доступности системы Gryf — так называемого ИИ-суперкомпьютера в чемодане, разработанного в сотрудничестве с SourceCode. Это сравнительно компактное устройство, как утверждается, обеспечивает производительность ЦОД-класса для периферийных развёртываний. Первая информация о Gryf появилась около года назад. Устройство выполнено в корпусе с габаритами 228,6 × 355,6 × 622,3 мм, а масса составляет примерно 25 кг. Система может эксплуатироваться при температурах от +10 до +32 °C. Конструкция предусматривает использование модулей Sled четырёх типов: это вычислительный узел Compute Sled, блок ускорителя Accelerator Sled, узел хранения Storage Sled и сетевой блок Network Sled. Доступны различные конфигурации, но суммарное количество модулей Sled в составе Gryf не превышает шести. Плюс к этому в любой комплектации устанавливается модуль питания с двумя блоками мощностью 2500 Вт. Узел Compute Sled содержит процессор AMD EPYC 7003 Milan с 16, 32 или 64 ядрами, до 512 Гбайт DDR4, системный SSD формата M.2 (NVMe) вместимостью 512 Гбайт и два порта 100GbE QSFP56. Блок Storage Sled объединяет восемь накопителей NVMe SSD E1.L суммарной вместимостью до 492 Тбайт. Модуль Network Sled предоставляет два порта QSFP28 100GbE и шесть портов SFP28 25GbE. За ИИ-производительность отвечает модуль Accelerator Sled, который может нести на борту ускоритель NVIDIA L40S (48 Гбайт), H100 NVL (94 Гбайт) или H200 NVL (141 Гбайт). В максимальной конфигурации быстродействие в режиме FP64 достигает 30 Тфлопс (3,34 Пфлопс FP8), а пропускная способность памяти — 4,8 Тбайт/с. ![]() Источник изображения: GigaIO Архитектура новинки обеспечивает возможность масштабирования путём объединения в единый комплекс до пяти экземпляров Gryf: в общей сложности можно совместить до 30 модулей Sled в той или иной конфигурации. Заказы на Gryf уже поступили со стороны Министерства обороны США, американских разведывательных структур и пр.
21.04.2025 [17:05], Татьяна Золотова
Для российских исследователей будут созданы суперкомпьютерный центр и роботизированные лабораторииПрезидент России поручил рассмотреть вопрос о внедрении инновационных технологий в промышленности. Для этого необходимо создать национальный суперкомпьютерный центр, роботизированные лаборатории, активнее внедрять искусственный интеллект. Об этом говорится в «Перечне поручений по итогам пленарного заседания и посещения выставки Форума будущих технологий, встречи с учеными». Как указано в документе, до 1 июня 2025 года премьер-министр РФ Михаил Мишустин должен представить предложения о создании единой межотраслевой цифровой базы данных свойств высокотехнологичных материалов и их компонентов, разработанной совместно с «Российской академией наук» и «Росатомом». В срок до 15 июля 2025 года необходимо также представить предложения о создании роботизированных лабораторий для проведения научных исследований с применением технологий ИИ. Среди поручений к середине июля 2025 года также необходимо рассмотреть вопрос о создании национального суперкомпьютерного центра. При этом доступ к его вычислительным мощностям получат все российские исследователи. Кроме того, президент поручил до 1 августа 2025 года представить предложения о расширении применения технологий ИИ и компьютерного моделирования для сокращения сроков разработки и внедрения новых материалов в химической отрасли. Ожидается, что благодаря внедрению ИИ и компьютерного моделирования сроки разработки и внедрения новых материалов в России можно уменьшить до 5–10 лет, а со временем и до двух-трёх лет. К 1 сентября 2025 года Правительство РФ совместно с «Российской академией наук», «Росатомом» и «Курчатовским институтом» должно разработать предложения о создании межотраслевого центра аддитивных технологий или 3D-печати для ускорения внедрения промышленными предприятиями таких технологий.
21.04.2025 [11:36], Сергей Карасёв
CoolIT представила 2-МВт блок распределения охлаждающей жидкости CHx2000 для ИИ и HPC ЦОДКомпания CoolIT Systems анонсировала блок распределения охлаждающей жидкости (CDU) CHx2000 для дата-центров, ориентированных на задачи ИИ и НРС. Новинка обеспечивает отвод более 2 МВт тепла: это, как утверждается, на сегодняшний день самый высокий показатель для CDU данного класса. Устройство выполнено в виде шкафа с размерами основания 750 × 1200 мм. Заявленный расход жидкости составляет 1,2 л/мин. на кВт (LPM/kW): допускается охлаждение до двенадцати стоек NVIDIA GB200 NVL72 мощностью 120 кВт. По сравнению со своим предшественником (модель CHx1500) новинка обеспечивает повышение охлаждающей способности на 66 %. При создании CHx2000 компания CoolIT Systems сделала упор на долговечность, безотказную работу и простоту обслуживания. Применены два насоса с возможностью горячей замены (N+N), обеспечивающие производительность 1500 л/мин. Трубы изготовлены из нержавеющей стали. В конструкции используются 4″ муфты Victaulic. Благодаря резервированию критически важных компонентов доступность находится на уровне 99,9999 %. Предусмотрена интегрированная система управления и мониторинга (Redfish, SNMP, TCP/IP, Modbus, BACnet и др.). Причём допускается групповое управление одновременно до 20 экземпляров CDU. Во время обслуживания возможен доступ с лицевой и тыльной сторон с поддержкой горячей замены насосов, фильтров и датчиков. Заявленная потребляемая мощность составляет 12,24 кВт при работе одного насоса (1500 л/мин). Во фронтальной части корпуса располагается информационный дисплей. Блок CHx2000 уже доступен для заказа. CoolIT Systems предоставляет комплексную поддержку и услуги по проектированию, монтажу и обслуживанию в более чем 70 странах по всему миру.
16.04.2025 [14:20], Сергей Карасёв
Уникальный суперкомпьютер Anton 3 для задач молекулярной динамики введён в эксплуатациюПиттсбургский суперкомпьютерный центр (PSC) ввёл в эксплуатацию вычислительный комплекс Anton 3 — специализированный суперкомпьютер следующего поколения, предназначенный для биомолекулярного моделирования. Система позволяет ускорить исследование ферментов, создание новых лекарственных препаратов, ремоделирование мембран и пр. Проект Anton реализуется частной компанией D. E. Shaw Research. Данная серия суперкомпьютеров названа в честь Антони ван Левенгука (Antoni van Leeuwenhoek) — нидерландского натуралиста, конструктора микроскопов и пионера микробиологии. Системы Anton разрабатываются специально для ускорения процесса моделирования молекулярной динамики. С помощью этих суперкомпьютеров исследователи могут получить ценную информацию о движениях и взаимодействиях белков и других биологически важных молекул. Многие из решаемых на базе Anton задач не могут быть выполнены за разумное время с помощью любого другого современного суперкомпьютера общего назначения или программного обеспечения для молекулярной динамики, доступного академическому сообществу. Комплекс Anton 3 имеет 64-узловую конфигурацию. Задействованы 512 кастомных ASIC, а энергопотребление суперкомпьютера находится на уровне 400 кВт. Anton 3 обеспечивает быстродействие до 980 тыс. шагов моделирования в секунду (timesteps per second, TPS). По производительности на задачах молекулярной динамики система, как утверждается, на два порядка превосходит существующие универсальные суперкомпьютеры. Впрочем, по словам Cerebras, её царь-ускорители справляются и с этой задачей. «Благодаря новейшей системе Anton мы сможем предоставить исследователям уникальный ресурс, способный за считанные дни выдавать результаты, на которые при использовании любого другого суперкомпьютера ушли бы годы», — отмечает доктор Филип Блад (Philip Blood), научный директор PSC. Разработкой систем для ускорения расчётов молекулярной динамики также занимается RIKEN в рамках проекта MDGRAPE.
10.04.2025 [19:31], Руслан Авдеев
ИИ-континент: Евросоюз намерен как минимум утроить ёмкость дата-центров в ближайшие годыВ следующие пять-семь лет Евросоюз намеревается более чем втрое нарастить ёмкость своих дата-центров. Это позволит снизить зависимость от вычислительных мощностей, находящихся в других регионах мира, сообщает Computer Weekly, и сформировать крупный единый рынок общим набором «правил безопасности», которые обеспечат ИИ-технологий. Основные векторы развития подробно изложены в проекте ЕС AI Continent Action Plan. В проекте документа заявляется, что сейчас ЕС отстаёт по объёму доступных мощностей ЦОД от США и Китая, в значительной степени используя облачную инфраструктуру из других регионов мира. Это вызывает обеспокоенность у бизнеса и политиков. Для того, чтобы удовлетворить потребности предприятий и государственных органов в ИИ и вычислениях в целом, а также обеспечить суверенитет и конкурентоспособность, предлагается наращивать собственные облачные мощности и мощности ЦОД вообще. Для этого проводятся консультации по разработке «Закона о развитии облачных технологий и ИИ» (Cloud and AI Development Act), который позволит ускоренно строить новые ЦОД в Евросоюзе. В документе указывается, что сегодня среднее время получения разрешения на строительство и эколицензий в Европе часто превышает 48 месяцев, при этом площадки для строек и энергию ещё поискать надо. Новый закон должен устранить препятствия. Проектам ЦОД, соответствующим требованиям по эффективному использованию энергии и воды, разрешения будут выдавать в упрощённом порядке. Также предполагается «улучшить» конкуренцию на рынке облачных услуг, предоставив возможность выхода на него большему числу облачных провайдеров. Эти и другие действия — часть проекта Евросоюза по созданию собственного, особого подхода к развитию искусственного интеллекта, основанного на сильных сторонах объединения, позволяющих превратить ЕС в «континент ИИ». ![]() Источник изображения: Maks Key/unsplash.com В документе упоминается, что в ЕС действуют 6300 стартапов в области ИИ, более 600 из них работают над созданием систем генеративного ИИ. Тем не менее, нужно принимать меры, чтобы обеспечить компании и исследователей ресурсами, необходимые для успешной реализации проектов. Для этого необходимо будет расширить общедоступную ИИ-инфраструктуру с созданием «гигафабрик» с энергоэффективными и высокопроизводительными вычислительными системами, которые можно будет объединить в сети. ЕС уже обязался выделить €20 млрд на финансирование ИИ-инфраструктуры, чтобы частично компенсировать расходы на создание в Европе пяти ИИ-фабрик, также стороны приглашаются к созданию государственно-частных партнёрств для ускоренного строительства соответствующих объектов. Гигафабрики станут своеобразными центрами притяжения для сотрудничества исследователей, предпринимателей и инвесторов в проектах разной направленности, от здравоохранения до робототехники и науки в целом. Превращение Евросоюза в «ИИ-сверхдержаву» также потребует доступа к более качественным данным, и активной разработки ИИ в самом ЕС, а также поощрения внедрения ИИ-систем в стратегически важных секторах. Также в документе упоминается необходимость наращивания базы талантов в сфере искусственного интеллекта — этого можно будет добиться, упростив легальную миграцию профильных квалифицированных специалистов. Документ ЕС во многом перекликается с недавно представленным проектом превращения Великобритании в «ИИ-сверхдержаву». В частности, там тоже намерены стимулировать инновации в области ИИ, наращивать вычислительные и энергетические мощности и др.
09.04.2025 [00:49], Алексей Степин
Все против NVIDIA: представлена открытая альтернатива NVLink — интерконнект UALink 200G 1.0Консорциум UALink, в состав которой входят AMD, AWS, Astera Labs, Cisco, Google, HPE, Intel, Meta✴ и Microsoft, опубликовала первые спецификации на разрабатываемую в рамках альянса более доступную альтернативу проприетарным решениям NVIDIA. Интерконнект UALink призван заменить в первую очередь NVLink и во многом опирается на AMD Infinity Fabric, хотя пока что по скоростям составляет конкуренцию скорее Ethernet и InfiniBand. Консорциум Ultra Accelerator Link был сформирован в конце прошлого года с целью создания высокоскоростного интерконнекта с низкими задержками, базирующегося на открытых технологиях. Речь здесь не только о приверженности открытым стандартам, но и о солидном потенциальном куске рынка — только за прошедший финансовый год сетевое подразделение NVIDIA выручило $13 млрд. ![]() Источник здесь и далее: UALink Появление более доступной и открытой альтернативы теоретически должно пошатнуть позиции последней в этом секторе, а также позволить разработчикам HPC-систем и ИИ-кластеров избежать жёсткой привязки к одному вендору. В том числе речь идёт о возможности организации сети UALink, включающей в себя GPU и ускорители разных поставщиков. Упор в первой версии стандарта сделан на общий доступ к памяти ускорителей с высокой скоростью, низкими задержками и простыми атомарными операциями Впервые опубликованные спецификации описывают стандарт UALink 200G 1.0. В основе лежит коммутируемая сеть с пропускной способностью 200 Гбит/с на каждую линию, во многом наследующая AMD Infinity Fabric, но дополненная разработками других участников альянса. Максимальное количество линий на один ускоритель может достигать четырёх, что позволяет поднять пропускную способность до 800 Гбит/с. Поддерживается бифуркация. Размер кластера в данной версии стандарта UALink ограничен 1024 узлами, не считая коммутаторов. При этом гарантируются линейные скорости на уровне соответствующих версий Ethernet, но c энергопотреблением от трети до половины от аналогичного показателя последних, при времени отклика на уровне коммутируемых вариантов PCI Express. Задержка от порта к порту должна составить менее 100 нс, на уровне коммутаторов UASwitch — 100–150 нс. Для сравнения: NVLink 5/6 позволяет объединить до 576 ускорителей в одном домене со скоростью до 0,9–1,8 Тбайт/с на ускоритель. Также предусмотрена совместная работа с Ethernet в составе GPU-кластера, где хост-процессоры общаются между собой посредством традиционной сети (в том числе Ultra Ethernet), а ускорители могут использовать либо прямое, либо коммутируемое подключение UALink. Передача данных осуществляется словами длиной 680 байт: 640-байт флит-пакеты + 40 байт накладных расходов на упреждающую коррекцию ошибок (FEC) и кодирование 256B/257B. Реализованы механизмы доступа к удалённой памяти, но когерентность на аппаратном уровне не поддерживается, также имеются различия на подуровне PCS (Physical coding sublayer). На физическом уровне используется стандарт IEEE 802.3dj: 200GBASE-KR1/CR1, 400GBASE-KR2/CR2 и 800GBASE-KR4/CR4. Имеющиеся ретаймеры для Ethernet также совместимы с UALink. Спецификации UALink 200G 1.0 доступны на сайте проекта. Глава консорциума UALink, Кёртис Боумен (Kurtis Bowman) настроен оптимистично и говорит примерно о 18 месяцах до появления первых аппаратных решений, что на полгода быстрее типичных сценариев воплощения спецификаций «в железо». Тем временем, альянс уже начал работу над второй версией UALink, использующей стек технологий 400G.
08.04.2025 [13:29], Сергей Карасёв
Eviden создаст для Сербии суперкомпьютер стоимостью €36 млнВласти Сербии, по сообщению ресурса Datacenter Dynamics, заключили контракт с Eviden (подразделение Atos Group) на создание нового суперкомпьютера. Речь идёт о приобретении системы BullSequana последнего поколения, которая будет поставлена к концу текущего года. Технические подробности проекта пока не раскрываются. Отмечается лишь, что контракт с Eviden является частью более широкого соглашения стоимостью €50 млн, подписанного между правительствами Сербии и Франции. Из этой суммы €36 млн пойдёт непосредственно на создание суперкомпьютера. Оставшаяся часть средств будет потрачена на ИИ-инициативы в таких сферах, как здравоохранение, энергетика, транспорт и государственное управление. На сегодняшний день, как отмечается, Сербия эксплуатирует как минимум один неназванный НРС-комплекс, созданный NVIDIA и размещённый в государственном дата-центре в Крагуеваце (столица административного региона Шумадия). Система, запущенная в декабре 2021 года, обошлась в €30 млн. В перспективе в модернизацию этого суперкомпьютера планируется инвестировать €40 млн, что позволит поднять его производительность в семь раз. ![]() Источник изображения: Правительство Сербии Глава сербского управления по IT и электронному правительству Михайло Йованович (Mihailo Jovanovic) заявил, что новый суперкомпьютер, поставкой которого займётся Eviden, будет насчитывать «в 20 раз больше чипов, чем [нынешняя] система NVIDIA», и получит почти в 30 раз больше памяти. Какие именно чипы имеются в виду, Йованович уточнять не стал. Работа над государственным ЦОД в Крагуеваце стоимостью €30 млн началась в 2019 году, а открытие состоялось в 2020-м. Дата-центр состоит из двух объектов общей площадью около 14 тыс. м2 — это примерно в пять раз больше по сравнению с прежней ЦОД-площадкой в Белграде. Комплекс в Крагуеваце соответствует стандарту Tier IV: он предоставляет услуги хостинга для предприятий и правительственных структур.
06.04.2025 [14:05], Сергей Карасёв
Начато создание европейского суперкомпьютера Daedalus с производительностью 89 ПфлопсЕвропейское совместное предприятие по развитию высокопроизводительных вычислений (EuroHPC JU) сообщило о подписании соглашения с компанией НРЕ на создание суперкомпьютера Daedalus, который расположится в Греции и будет интегрирован с ИИ-фабрикой Pharos. Контракт с НРЕ заключён при участии Национальной инфраструктуры исследований и технологий GRNET S.A. в Афинах. Общая стоимость создания Daedalus оценивается в €36 млн. Из этой суммы 35 % предоставит EuroHPC JU, а остальные 65 % будут привлечены в рамках Национального плана восстановления и обеспечения устойчивости «Греция 2.0». В проекте также участвуют Кипр, Черногория и Северная Македония, вошедшие в специально сформированный консорциум Daedalus. Производительность нового суперкомпьютера составит более 89 Пфлопс (FP64). С таким показателем быстродействия в ноябрьском рейтинге мощнейших суперкомпьютеров мира TOP500 комплекс Daedalus мог бы занять 17-е или 18-е место. Для НРС-платформы предусмотрено применение возобновляемых источников энергии и передовых систем охлаждения, которые значительно повысят энергетическую эффективность. Суперкомпьютер Daedalus станет доступен в начале 2026 года широкому кругу пользователей по всей Европе, включая научное сообщество, промышленную сферу и государственный сектор. Машина расположится в новом дата-центре в здании бывшей электростанции Технологического культурного парка Лаврион Национального технического университета Афин (NTUA). Доступ к вычислительным ресурсам комплекса будет совместно управляться EuroHPC JU и консорциумом Daedalus пропорционально их инвестициям. Ожидается, что Daedalus ускорит научные достижения Европы в различных областях, включая ИИ, медицину, метеорологию, анализ больших данных и разработку интеллектуальных транспортных систем. В декабре 2024 года консорциум EuroHPC выбрал площадки для первых европейских ИИ-фабрик (AI Factory): они разместятся в Финляндии, Германии, Греции, Италии, Люксембурге, Испании и Швеции. Аналогичные комплексы также появятся в Австрии, Болгарии, Франции, Германии, Польше и Словении.
05.04.2025 [10:36], Сергей Карасёв
Европейский суперкомпьютер Discoverer получил обновление в виде NVIDIA DGX H200Европейское совместное предприятие по развитию высокопроизводительных вычислений (EuroHPC JU) объявило о модернизации суперкомпьютера Discoverer, установленного в Софийском технологическом парке в Болгарии. Обновленная НРС-система получила название Discoverer+. Комплекс Discoverer, построенный на платформе BullSequana XH2000, был введён в эксплуатацию в 2021 году. Изначальная конфигурация включала 1128 вычислительных узлов, каждый из которых содержит два 64-ядерных процессора AMD EPYC 7H12 поколения Rome. Производительность (FP64) достигала 4,52 Пфлопс с пиковым значением в 5,94 Пфлопс. С такими показателями система находится на 221-й позиции в ноябрьском рейтинге мощнейших суперкомпьютеров мира TOP500. В рамках модернизации добавлен GPU-раздел на основе четырёх модулей NVIDIA DGX H200. Каждый из них содержит восемь ускорителей H200 и два процессора Intel Xeon Platinum 8480C поколения Sapphire Rapids с 56 ядрами (до 3,8 ГГц). Модули обладают быстродействием до 32 Пфлопс каждый в режиме FP8. Кроме того, обновлённый комплекс получил Lustre-хранилище вместимостью 5,1 Пбайт, систему хранения Weka ёмкостью 273 Тбайт и дополнительную ИБП-систему. ![]() Источник изображения: EuroHPC JU Как отмечается, Discoverer стал первым суперкомпьютером EuroHPC, прошедшим серьёзную модернизацию с момента своего первоначального запуска. После наращивания мощностей комплекс планируется использовать для крупномасштабных проектов в области ИИ, таких как обучение нейронных сетей, создание цифровых двойников сложных объектов и пр. В декабре 2024 года консорциум EuroHPC выбрал площадки для первых европейских ИИ-фабрик (AI Factory): они расположатся в Финляндии, Германии, Греции, Италии, Люксембурге, Испании и Швеции. Кроме того, такие объекты планируется создать в Австрии, Болгарии, Франции, Германии, Польше и Словении. Эти площадки станут частью высококонкурентной и инновационной экосистемы ИИ в Европе. |
|