Материалы по тегу: hpc

01.08.2023 [10:02], Сергей Карасёв

Esperanto готовит универсальный чип ET-SoC-2 на базе RISC-V для задач НРС и ИИ

Стартап Esperanto Technologies, по сообщению ресурса HPC Wire, готовит новый чип с архитектурой RISC-V, ориентированный на системы высокопроизводительных вычислений (НРС) и задачи ИИ. Изделие получит обозначение ET-SoC-2. Нынешний чип ET-SoC-1 объединяет 1088 энергоэффективных ядер ET-Minion и четыре высокопроизводительных ядра ET-Maxion. Решение предназначено для инференса рекомендательных систем, в том числе на периферии.

Чип ET-SoC-2 будет включать в себя новые высокопроизводительные ядра CPU на базе RISC-V с векторными расширениями. Точные данные о производительности не раскрываются, но говорится, что изделие обеспечит быстродействие с двойной точностью более 10 Тфлопс. Архитектура ET-SoC-2 предполагает совместную работу сотен и тысяч чипов для организации платформ НРС. При этом Esperanto делает упор на энергетической эффективности своих решений.

 Источник изображения: Esperanto Technologies

Источник изображения: Esperanto Technologies

По словам Дейва Дитцеля (Dave Ditzel), генерального директора Esperanto, чипы RISC-V смогут взять на себя функции и CPU, и GPU при обработке ресурсоёмких приложений, в частности, машинного обучения. Процессоры RISC-V отстают по производительности от чипов x86 и Arm, хотя разрыв постепенно сокращается. Дитцель сказал, что стойки с чипами ET-SoC-1 могут обеспечить производительность в петафлопсы. Однако проблема с внедрением RISC-V заключается в слабо развитой экосистеме ПО.

Постоянный URL: http://servernews.ru/1090826
27.07.2023 [14:09], Сергей Карасёв

AWS запустила инстансы EC2 P5 на базе NVIDIA H100 для масштабных ИИ-задач

Облачная платформа AWS официально объявила о доступности инстансов EC2 P5, которые предназначены для работы с большими языковыми моделями и генеративным ИИ. Благодаря масштабируемости производительность кластеров P5 может достигать 20 Эфлопс (точность вычислений не указана), что позволит решать самые сложные вычислительные задачи.

О подготовке инстансов EC2 P5 сообщалось в марте нынешнего года. В основу положены ускорители NVIDIA H100, количество которых в составе кластеров EC2 UltraClusters второго поколения может превышать 20 тыс.

Каждый инстанс P5 оснащён восемью ускорителями NVIDIA H100. Задействованы процессоры AMD EPYC Milan, а количество vCPU достигает 192. Общий объём системной памяти равен 2 Тбайт; локальное хранилище включает восемь SSD вместимостью 3,84 Тбайт каждый. Используются адаптеры AWS Elastic Fabric Adapter (EFA) второго поколения с низкой задержкой, агрегированной скоростью передачи данных 3200 Тбит/с и поддержкой NVIDIA GPUDirect RDMA.

 Источник изображения: AWS

Источник изображения: AWS

Заявленная производительность в расчёте на инстанс достигает 16 Пфлопс FP8 и 8 Пфлопс FP16. Утверждается, что при использовании EC2 P5 время тренировки моделей машинного обучения сокращается в шесть раз по сравнению с инстансами AWS предыдущего поколения. В настоящее время доступ к EC2 P5 предоставляется в регионах US East (Северная Вирджиния) и US West (Орегон).

Постоянный URL: http://servernews.ru/1090617
26.07.2023 [11:29], Сергей Карасёв

В Японии появится новый суперкомпьютер для генеративного ИИ

Министерство экономики, торговли и промышленности Японии (METI), по сообщению ресурса Datacenter Dynamics, реализует проект по созданию нового суперкомпьютера, предназначенного для генеративного ИИ. Его ресурсы будут доступны через облачную платформу местным компаниям, которые ведут разработки в соответствующей сфере.

Вычислительный комплекс расположится в новом исследовательском центре Японского национального института передовых технических наук и технологии (AIST). На создание этой площадки METI предоставит финансирование в размере $226 млн. Центр будет специализироваться на суперкомпьютерных и квантовых технологиях.

 Источник изображения: AIST

Источник изображения: AIST

Подробности о проекте не раскрываются. По имеющейся информации, строящийся вычислительный комплекс получит более 2 тыс. ускорителей NVIDIA. В создании системы принимают участие специалисты Sakura Internet. Ввод суперкомпьютера в эксплуатацию запланирован на 2024 год.

Нынешний суперкомпьютер AIST под названием AI Bridging Cloud Infrastructure (ABCI) используется примерно 3000 компаний и организаций. В текущем рейтинге Тор500 он занимает 24-е место с производительностью приблизительно 22 Пфлопс. Но этой системе не хватает ресурсов для работы с генеративным ИИ. Будущий вычислительный комплекс обеспечит примерно в 2,5 раза более высокое быстродействие.

Постоянный URL: http://servernews.ru/1090548
26.07.2023 [01:05], Руслан Авдеев

Индия закупается суперкомпьютерами для метеорологов из-за «чрезвычайно неустойчивых» климатических условий

Индийские метеорологи ожидают важное пополнение IT-парка. По данным DataCenter Dynamics, чтобы они моли делать более точные метеорологические прогнозы и моделировать погодные и климатические процессы, было решено установить два новых суперкомпьютера производительностью 10 и 18 Пфлопс соответственно. Уже имеющиеся кластеры Pratyush (4 Пфлопс) и Mihir (2,8 Пфлопс) продолжат свою работу совместно с новыми машинам в рамках миссии Monsoon Phase 3.

Ожидаемая дата ввода первого будущего суперкомпьютера в эксплуатацию пока не называется, как и его достоверные спецификации. Вторая же машина, судя по всему, одна из двух, на которые Индия недавно оформила заказ — общая мощность систем составит около 18 Пфлопс, хотя данные в разных источниках не вполне совпадают.

 Источник изображения: cookieone/pixabay.com

Источник изображения: cookieone/pixabay.com

По данным местных чиновников, решение о покупке новых суперкомпьютеров вызвано «чрезвычайно неустойчивыми» климатическими условиями. Новые аппаратные мощности позволят увеличить разрешающую способность при картографировании климатических изменений с 12×12 км до 6×6 км. Одна из машин будет использоваться для краткосрочных прогнозов, вторая — для более долгосрочного моделирования.

Постоянный URL: http://servernews.ru/1090525
25.07.2023 [15:09], Сергей Карасёв

TACC получит 10-Пфлопс суперкомпьютер Stampede3 на базе Intel Max и 400G Omni-Path

Техасский центр передовых вычислений (TACC) при Техасском университете в Остине (США) анонсировал НРС-комплекс Stampede3, на создание которого Национальный научный фонд (NSF) выделил $10 млн. Новый суперкомпьютер станет последователем систем Stampede (2012 год) и Stampede2 (2017 год).

В состав Stampede3 войдут 560 узлов на базе двух 56-ядерных процессоров Intel Xeon Max с 64 Гбайт встроенной памяти HBM2e. Это в сумме даст почти 63 тыс. вычислительных ядер общего назначения, а пиковая производительность составит около 4 Пфлопс (FP64). Кроме того, Stampede3 будет включать в себя 10 серверов Dell PowerEdge XE9640, содержащих 40 ускорителей Intel Max (Ponte Vecchio).

Примечательно, что новые CPU-узлы не будут оснащаться DDR5. Если памяти на ядро для некоторых задач будет не хватать, то их перенесут на другие узлы — в составе Stampede3 будут повторно задействованы 224 узла Stampede2 с двумя 40-ядерными процессорами Intel Xeon Ice Lake-SP и 256 Гбайт RAM. Более того, к ним присоединятся 1064 узла системы Stampede2, каждый из которых содержит два чипа Intel Xeon Skylake-SP с 24 ядрами и 192 Гбайт памяти.

 Источник изображения: TACC

Источник изображения: TACC

Фактически TACC теперь полностью избавилась от Xeon Phi и сохранила часть узлов от старых систем в новой машине, а некоторые пустила на создание склада запчастей. В общей сложности Stampede3 объединит 1858 вычислительных узлов, содержащих более 140 000 процессорных ядер и свыше 330 Тбайт памяти. Пиковая производительность составит почти 10 Пфлопс.

Ещё одна интересная особенность суперкомпьютера — использование новейшего 400-Гбит/с интерконнекта Omni-Path. Точнее, часть старых систем останется с 100G Omni-Path, хотя коммутаторы будут обновлены. То есть Cornelis Networks сдержала обещание, пропустив поколение OPA-200 и сразу перейдя к созданию OPA-400. Кроме того, суперкомпьютер получит полностью новое All-Flash (QLC) хранилище VAST вместимостью 13 Пбайт и скоростью доступа 450 Гбайт/с, тоже на базе серверов Dell. СХД придёт на замену Lustre-хранилищу.

Узлы Stampede3 будут поставлены осенью нынешнего года, а на полную мощность суперкомпьютер заработает в начале 2024-го. Комплекс станет частью вычислительной экосистемы ACCESS Национального научного фонда.

Постоянный URL: http://servernews.ru/1090479
24.07.2023 [14:58], Сергей Карасёв

Компания CIQ, поддерживающая Rocky Linux, анонсировала партнёрскую программу для ускорения внедрения НРС и ИИ

Компания CIQ официально объявила о запуске партнёрской программы (CIQ Partner Program), ориентированной на объединение поставщиков облачных услуг, интеграторов, реселлеров и OEM-производителей. Основная цель заключается в ускорении внедрения НРС-решений и ИИ.

Программа направлена на содействие сотрудничеству и создание развитой отраслевой экосистемы, основанной на инструментах с открытым исходным кодом, таких как Rocky Linux, Apptainer и Warewulf. Объединив усилия с CIQ, партнёры могут открыть новые возможности и получить доступ к ресурсам, которые позволят им предоставлять заказчикам наиболее эффективные решения.

На сегодняшний день инициативу CIQ поддержали приблизительно 35 компаний и организаций. В их число входят AWS, Microsoft Azure, Google Cloud, Oracle Cloud, HPE, Dell, Penguin Computing, ALT Systems, Racklive, Zmanda, Graid Technology, Zenlayer и др. Среди ключевых преимуществ партнёрской программы называются: регистрация сделок, обучение специалистов отдела продаж, каталог партнёров, улучшение маркетинговых возможностей, обмен опытом и пр.

 Источник изображения: CIQ

Источник изображения: CIQ

Партнёры CIQ имеют возможность использовать передовые инструменты с открытым исходным кодом для решения задач своих клиентов. В целом, как отмечается, инициатива ориентирована на организации, которые готовы сотрудничать, вносить свой вклад и создавать значимые решения в экосистеме с открытым исходным кодом.

Нужно отметить, что главой CIQ является Грегори Курцер (Gregory Kurtzer). Он хорошо известен благодаря разработке масштабируемых и простых в управлении безопасных инфраструктурных платформ для HPC. Курцер основал несколько крупных проектов с открытым исходным кодом, таких как CentOS, Warewulf и Perceus, а также Rocky Linux.

Постоянный URL: http://servernews.ru/1090434
23.07.2023 [14:57], Сергей Карасёв

ВМС США обзаведутся 17,7-Пфлопс суперкомпьютером Blueback с ускорителями AMD Instinct MI300A

Министерство обороны США (DoD) объявило о планах по развёртыванию новой суперкомпьютерной системы в рамках Программы модернизации высокопроизводительных вычислений (HPCMP). Комплекс получил название Blueback — в честь американской подводной лодки USS Blueback (SS-581).

Сообщается, что Blueback расположится в Центре суперкомпьютерных ресурсов в составе DoD (Navy DSRC), который находится в ведении Командования морской метеорологии и океанографии (CNMOC). Суперкомпьютер заменит три старых вычислительных комплекса в экосистеме HPCMP.

Основой Blueback послужит платформа HPE Cray EX4000. Архитектура включает процессоры AMD EPYC Genoa, 128 гибридных ускорителей AMD Instinct MI300A (APU) и 24 ускорителя NVIDIA L40, связанных между собой 200G-интерконнектом Cray Slingshot-11. В состав комплекса войдёт Lustre-хранилище Cray ClusterStor E1000 вместимостью 20 Пбайт, включая 2 Пбайт пространства на базе SSD NVMe. Объём системной памяти — 538 Тбайт. Общее количество вычислительных ядер будет достигать 256 512.

 Источник изображения: Jonathan Holloway / DoD

Источник изображения: Jonathan Holloway / DoD

Ожидается, что суперкомпьютер Blueback будет введён в эксплуатацию в 2024 году. Кстати, совсем недавно центр Navy DSRC получил НРС-систему Nautilus производительностью 8,2 Пфлопс. Она содержит 176 128 ядер и 382 Тбайт памяти.

Постоянный URL: http://servernews.ru/1090412
22.07.2023 [14:57], Сергей Карасёв

Tesla начала создание ИИ-суперкомпьютера Dojo стоимостью $1 млрд

Компания Tesla, по сообщению The Register, до конца 2024 года потратит более $1 млрд на создание мощного вычислительного комплекса Dojo, который поможет в разработке инновационных технологий для роботизированных автомобилей. В основу Dojo лягут специализированные чипы собственной разработки — Tesla D1. 25 таких ускорителей в виде массива 5 × 5 объединяются в рамках одного узла, который в Tesla называют «системой на пластине» (System On Wafer).

Как отмечает The Verge, компания Tesla намерена совместить в одном шасси шесть таких «систем на пластине», тогда как одна стойка будет включать два шасси. В такой конфигурации производительность на стойку превысит 100 Пфлопс (BF16/CFP8). Таким образом, система из десяти шкафов позволит преодолеть экзафлопсный барьер. Более того, уже к концу следующего года, по словам главы Tesla Илона Маска, производительность может быть доведена до 100 Эфлопс.

 Источник изображения: Tesla

Источник изображения: Tesla

В своём отчете за II квартал 2023 года Tesla обозначила «четыре основных технологических столпа», необходимых для решения проблемы автономности транспортных средств: это чрезвычайно большой набор реальных данных, обучение нейронных сетей, аппаратные компоненты и ПО. «Мы разрабатываем каждый из этих столпов собственными силами. В этом месяце мы делаем ещё один шаг к более быстрому и дешёвому обучению нейронной сети с началом производства нашего суперкомпьютера Dojo», — говорится в заявлении компании.

Постоянный URL: http://servernews.ru/1090398
21.07.2023 [15:35], Сергей Карасёв

NVIDIA, подвинься: Cerebras представила 4-Эфлопс ИИ-суперкомпьютер Condor Galaxy 1 и намерена построить ещё восемь таких же

Компания Cerebras Systems анонсировала суперкомпьютер Condor Galaxy 1 (CG-1), предназначенный для решения ресурсоёмких задач с применением ИИ. Это одна из первых действительно крупных машин на базе уникальных чипов Cerebras. В проекте стоимостью $100 млн приняла участие холдинговая группа G42 из ОАЭ, которая занимается технологиями ИИ и облачными вычислениями. G42 является основным заказчиком комплекса.

В текущем виде комплекс CG-1, расположенный в Санта-Кларе (Калифорния, США), объединяет 32 системы Cerebras CS-2 и обеспечивает производительность на уровне 2 Эфлопс (FP16). В IV квартале ткущего года будут добавлены ещё 32 системы Cerebras CS-2, что позволит довести быстродействие до 4 Эфлопс (FP16). Ожидаемый уровень энергопотребления составит порядка 1,5 МВт или более.

 Источник изображений: Cerebras (via ServeTheHome)

Источник изображений: Cerebras (via ServeTheHome)

В системах Cerebras CS-2 применяются гигантские чипы Wafer-Scale Engine 2 (WSE-2), насчитывающие 2,6 трлн транзисторов. Такие чипы имеют 850 тыс. тензорных ядер и несут на борту 40 Гбайт памяти SRAM. Системы выполнены в формате 15 RU и укомплектованы шестью блоками питания мощностью 4 кВт каждый. Задействована технология жидкостного охлаждения. Отдельно отмечается, что программный стек позволит без проблем и существенных модификаций кода работать с ИИ-моделями.

После ввода в строй второй очереди комплекс CG-1 суммарно получит 54,4 млн ИИ-ядер, 2,56 Тбайт SRAM и внутренний интерконнект со скоростью 388 Тбит/с. Их дополнят 72 704 ядра AMD EPYC Milan и 82 Тбайт памяти для хранения параметров. По словам создателей, мощностей суперкомпьютера хватит для обучения модели с 600 млрд параметров и на очередях длиной до 50 тыс. токенов. При этом производительность масштабируется практически линейно.

Cerebras и G42 будут предоставлять доступ к CG-1 по облачной схеме, что позволит заказчикам использовать ресурсы ИИ-суперкомпьютера без необходимости управлять моделями или распределять их по узлам и ускорителям. CG-1 — первый из трёх ИИ-суперкомпьютеров нового поколения. В I полугодии 2024 года будут построены комплексы CG-2 и CG-3, полностью аналогичные CG-1, которые будут объединены в распределённый ИИ-кластер. А к концу следующего года у Cerebras будет уже девять систем CG.

Для Cerebras это означает, что компания более не является стартапом, поскольку в её решения заказчики поверили и без участия в индустриальных тестах вроде MLPerf. Кроме того, теперь компания является не просто очередным производителем «железа», а предоставляет услуги, которые и помогут ей заработать в будущем.

Постоянный URL: http://servernews.ru/1090321
20.07.2023 [23:30], Игорь Осколков

AMD, Broadcom, Cisco, Intel и другие вендоры создадут интерконнект Ultra Ethernet для HPC и ИИ

AMD, Arista, Broadcom, Cisco, Eviden (Atos), HPE, Intel, Meta и Microsoft в рамках Linux Foundation сформировали новый консорциум Ultra Ethernet Consortium, который намерен создать на базе Ethernet новый масштабируемый и эффективный с точки зрения стоимости коммуникационный стек, ориентированный на высокопроизводительные вычисления (HPC) и ИИ. Иными словами, речь идёт о создании спецификаций интерконнекта нового поколения на базе Ethernet для современных кластеров, облаков и иных платформ.

UEC сформировал четыре рабочих группы, ответственных за физический, канальный и транспортный уровни, а также за уровень ПО. Целью же является создание современного сетевого стека, который учитывает потребности HPC- и ИИ-нагрузок, включая новые методы борьбы с заторами в сети, высокий уровень утилизации канала (в том числе 800G/1.6T), многопутевую и гарантированную доставку, сквозную телеметрию, консистентность и низкий уровень задержек, автоматизацию, безопасность и защищённость, масштабируемость, стабильность, надёжность, снижение TCO и так далее.

 Источник: Ultra Ethernet Consortium

Источник: Ultra Ethernet Consortium

Фактически отдельные вендоры уже наделили рядом перечисленных свойств свои продукты, однако унификация и объединение усилий, как считается, должны пойти на пользу всем. Всем, кроме, по-видимому, NVIDIA, которой в списке основателей UEC нет (как и Marvell, к слову). NVIDIA после поглощения Mellanox фактически стала монополистом на рынке InfiniBand, который она активно продвигает, не забывая, впрочем, и о своём проприетарном интерконнекте NVLink, который в последней своей версии выбрался за пределы узла. Справедливости ради — про Ethernet компании тоже не забывает.

В обзоре UEC аккуратно критикуется и InfiniBand, и его адаптация в виде RoCE. Авторы указывают на правильность и успешность идеи RDMA, но жалуются на не слишком высокую практичность и удобство современных реализаций. И именно поэтому они первым делом предлагают внедрить новый транспортный протокол Ultra Ethernet Transport (UET), который и позволит реализовать интерконнект будущего, а заодно ещё раз доказать эффективность и гибкость технологии Ethernet, которой в этом году исполнилось 50 лет. Впрочем, это только один из кирпичиков UEC. Примечательно, что первые продукты на базе новых спецификаций обещали показать уже в 2024 году.

Постоянный URL: http://servernews.ru/1090313

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus