Материалы по тегу: c
04.10.2024 [18:31], Владимир Мироненко
Суперкомпьютеры по талонам: Минцифры намерено выделять гранты на HPC/ИИ-вычисленияМинцифры России планирует начать выделять гранты компаниям на использование мощностей суперкомпьютеров, заявил министр цифрового развития Максут Шадаев на заседании IT-комитета Госдумы 3 октября, пишет «Коммерсантъ». «Когда мы выделяем гранты на внедрение современных решений, внутри них будет возможность в том числе заказывать услуги по специализированным вычислениям у специализированных провайдеров», — рассказал глава Минцифры, добавив, что эта мера направлена на стимулирование спроса на специализированные вычисления, а выделение грантов компаниям позволит загрузить вычислительные мощности «Сбера» и «Яндекса». Насколько велики эти гранты и когда начнётся их выделение, в Минцифры не сообщили. Действительно ли указанные мощности недостаточно загружены, не уточняется. По словам источника «Коммерсанта», близкого к правительству, гранты на аренду вычислительных мощностей суперкомпьютеров планируется предоставлять с 2025 года. Речь идёт о крупных компаниях, которые внедряют «передовые решения». Источник отметил, что это позволит снять с крупных заказчиков часть рисков, связанных с внедрением инноваций. Сейчас для минимальных проектов в области ИИ требуются ускорители на сумму от 30 млн руб., говорит директор Института прикладных компьютерных наук ИТМО Антон Кузнецов. Позволить себе такие траты маленькие компании зачастую не в состоянии, хотя именно они нуждаются во внедрении современных решений для быстрого роста. Ранее в этом месяце также сообщалось о планах правительства стимулировать строительство компаниями суперкомпьютеров, оснащённых ускорителями для обучения ИИ. Как ожидается, в результате совокупная мощность всех ИИ-суперкомпьютеров вырастёт в 2027 году в три раза и в десять раз — в 2030-м. В последнем рейтинге TOP500 есть семь российских суперкомпьютеров: три принадлежат «Яндексу», два ессть у «Сбера», а ещё по одному у МГУ и МТС. Российский рейтинг ТОП50 не обновляется с 2023 года.
02.10.2024 [10:33], Сергей Карасёв
Серверный бренд TYAN прекратил существование, вместо него теперь будет MiTACТайваньская компания MiTAC Computing Technology, дочерняя структура MiTAC Holdings, объявила об интеграции серверного бренда TYAN с брендом MiTAC. С 1 октября 2024 года вся продукция будет выпускаться исключительно под маркой MiTAC. Кроме того, появятся новый логотип и обновленный официальный веб-сайт. MiTAC вышла на рынок ODM-серверов в 1999 году. В 2007-м она расширила бизнес путём приобретения фирмы TYAN Computer: начался выпуск высокопроизводительных материнских плат и barebone-систем. После выделения подразделения облачных вычислений MiTAC в отдельный бизнес в 2014 году была сформирована компания MiTAC Computing Technology — в качестве дочерней структуры Mitac Holdings в составе группы MiTAC-Synnex Group. ![]() Источник изображения: MiTAC Президент MiTAC Computing Technology Рик Хван (Rick Hwang) отмечает, что хотя MiTAC и TYAN обслуживают разные сегменты рынка, их интеграция под одним брендом позволит оптимизировать стратегии дистрибуции и поможет укрепить рыночные позиции. В 2023 году MiTAC приобрела бизнес по производству серверов Intel, что, как отмечается, ещё больше усилит положение тайваньской компании в соответствующем сегменте. Процесс консолидации брендов MiTAC и TYAN уже завершён. В обозримом будущем компания намерена развивать семейство серверов, ориентированных на ИИ-нагрузки, в том числе на генеративные. Путём унификации бренда MiTAC стремится улучшить обслуживание клиентов в различных отраслях.
01.10.2024 [09:17], Сергей Карасёв
Isambard 2, один из первых Arm-суперкомпьютеров, отправился на покой30 сентября 2024 года, по сообщению Datacenter Dynamics, прекращена эксплуатация британского вычислительного комплекса Isambard 2. Это был один из первых в мире суперкомпьютеров, построенных на процессорах с архитектурой Arm. Система отправилась на покой после примерно шести лет работы. Isambard 2 назван в честь Изамбарда Кингдома Брюнеля — британского инженера, ставшего известной фигурой в истории Промышленной революции. Проект Isambard 2 реализован совместно компанией Cray, Метеорологической службой Великобритании и исследовательским консорциумом GW4 Alliance, в который входят университеты Бата, Бристоля, Кардиффа и Эксетера. Запуск суперкомпьютера состоялся в мае 2018 года. В основу Isambard 2 положены узлы Cray XC50. Задействованы 64-битные процессоры Marvell ThunderX2 с архитектурой Arm v8-A и ускорители NVIDIA P100. Общее количество вычислительных ядер — 20 992. Это одна из немногих систем на базе серии чипов ThunderX. ![]() Источник изображения: Marvell Technology/YouTube «После шести лет службы суперкомпьютер Isambard 2 наконец-то отправляется на пенсию. С мая 2018-го он был первым в мире серийным суперкомпьютером на базе Arm, использующим процессоры ThunderX2. Сегодня ему на смену приходит Isambard 3, содержащий Arm-чипы NVIDIA Grace», — сообщил профессор Саймон Макинтош-Смит (Simon McIntosh-Smith), руководитель проекта, глава группы микроэлектроники в Университете Бристоля. В основу Isambard 3 лягут 384 суперпроцессора NVIDIA Grace. Эта система, как ожидается, обеспечит в шесть раз более высокую производительность и в шесть раз лучшую энергоэффективность по сравнению с Isambard 2. Пиковое быстродействие FP64 у нового суперкомпьютера составит 2,7 Пфлопс при энергопотреблении менее 270 кВт. В дальнейшем вычислительные мощности Isambard 3 планируется наращивать. Комплекс будет применяться при решении сложных задач в области ИИ, медицины, астрофизики, биотехнологий и пр.
28.09.2024 [23:24], Сергей Карасёв
Индия запустила сразу пять суперкомпьютеров за два дня
a100
amd
atos
cascade lake-sp
epyc
eviden
hardware
hpc
intel
milan
nvidia
xeon
индия
метео
суперкомпьютер
Премьер-министр Индии Нарендра Моди, по сообщению The Register, объявил о вводе в эксплуатацию трёх новых высокопроизводительных вычислительных комплексов PARAM Rudra. Запуск этих суперкомпьютеров, как отмечается, является «символом экономической, социальной и промышленной политики» страны. Вдаваться в подробности о технических характеристиках машин Моди во время презентации не стал. Однако некоторую информацию раскрыли организации, которые займутся непосредственной эксплуатацией этих НРС-систем. Один из суперкомпьютеров располагается в Национальном центре радиоастрофизики Индии (NCRA). Данная машина оснащена «несколькими тысячами процессоров Intel» и 90 ускорителями NVIDIA A100, 35 Тбайт памяти и хранилищем вместимостью 2 Пбайт. Ещё один НРС-комплекс смонтирован в Центре фундаментальных наук имени С. Н. Бозе (SNBNCBS): известно, что он обладает быстродействием 838 Тфлопс. Оператором третьей системы является Межуниверситетский центр ускоренных вычислений (IUAC): этот суперкомпьютер с производительностью на уровне 3 Пфлопс использует 24-ядерные чипы Intel Xeon Cascade Lake-SP. Ёмкость хранилища составляет 4 Пбайт. Упомянут интерконнект с пропускной способностью 240 Гбит/с. The Register отмечает, что указанные характеристики в целом соответствуют описанию суперкомпьютеров Rudra первого поколения. Согласно имеющейся документации, такие машины используют:
Ожидается, что машины Rudra второго поколения получат поддержку процессоров Xeon Sapphire Rapids и четырёх GPU-ускорителей. Суперкомпьютеры третьего поколения будут использовать 96-ядерные Arm-процессоры AUM, разработанные индийским Центром развития передовых вычислений: эти изделия будут изготавливаться по 5-нм технологии TSMC. Между тем компания Eviden (дочерняя структура Atos) сообщила о поставках в Индию двух новых суперкомпьютеров. Один из них установлен в Индийском институте тропической метеорологии (IITM) в Пуне, второй — в Национальном центре среднесрочного прогнозирования погоды (NCMRWF) в Нойде. Эти системы, построенные на платформе BullSequana XH2000, предназначены для исследования погоды и климата. В создании комплексов приняли участие AMD, NVIDIA и DDN. Система IITM, получившая название ARKA, обладает быстродействием 11,77 Пфлопс: 3021 узел с AMD EPYC 7643 (Milan), 26 узлов с NVIDIA A100, NVIDIA Quantum InfiniBand и хранилище на 33 Пбайт (ранее говорилось о 3 Пбайт SSD + 29 Пбайт HDD). В свою очередь, суперкомпьютер NCMRWF под названием Arunika обладает производительностью 8,24 Пфлопс: 2115 узлов с AMD EPYC 7643 (Milan), NVIDIA Quantum InfiniBand и хранилище DDN EXAScaler ES400NVX2 (2 Пбайт SSD + 22 Пбайт HDD). Кроме того, эта система включает выделенный блок для приложений ИИ и машинного обучения с быстродействием 1,9 Пфлопс (точность не указана), состоящий из 18 узлов с NVIDIA A100.
27.09.2024 [16:40], Сергей Карасёв
Cloudflare представила серверы 12-го поколения на базе AMD EPYC Genoa-XАмериканская компания Cloudflare, предоставляющая в числе прочего услуги CDN, анонсировала серверы 12-го поколения для своей инфраструктуры. В основу 2U-узлов легла аппаратная платформа AMD EPYC Genoa-X. По словам компании, новая платформа на 145 % производительнее и при этом на 63 % энергоэффективнее систем 11-го поколения. Серверы имеют односокетное исполнение. Применён процессор EPYC 9684X с 96 ядрами (192 потока инструкций), работающий на базовой частоте 2,55 ГГц с возможностью повышения до 3,42 ГГц для всех ядер. Объём L3-кеша составляет 1152 Мбайт, а объём оперативной памяти DDR5-4800 в 12-канальной конфигурации составляет 384 Гбайт. В оснащения входят два накопителя формата EDSFF E1.S (15 мм) с интерфейсом PCIe 4.0 х4 вместимостью 7,68 Тбайт каждый (Samsung PM9A3 и Micron 7450 Pro). Заявленная скорость последовательного чтения информации достигает 6700 Мбайт/с, скорость последовательной записи — 4000 Мбайт/с. Показатель IOPS (операций ввода/вывода в секунду) при произвольном чтении — до 1,0 млн, при произвольной записи — до 200 тыс. Изделия рассчитаны на одну полную перезапись в сутки (DWPD). Серверы оснащены двумя 25GbE-адаптерами OCP 3.0 — Intel Ethernet Network Adapter E810-XXVDA2 и NVIDIA Mellanox ConnectX-6 Lx. Присутствуют контроллеры ASPEED AST2600 (BMC), AST1060 (HRoT), а также TPM-модуль. Примечательно, что все они, а также сдвоенные чипы памяти BMC и BIOS/UEFI, находятся на внешней карте стандарта OCP DC-SCM 2.0. Их разработкой в рамках Project Argus компания занималась совместно с Lenovo. За питание отвечают два блока мощностью 800 Вт с сертификатом 80 Plus Titanium. Допускается установка одной карты расширения FHFL двойной ширины или двух карт FHFL одинарной ширины. В частности, могут быть добавлены ускорители на базе GPU с показателем TDP до 400 Вт. Во фронтальной части корпуса располагаются вентиляторы охлаждения.
25.09.2024 [15:00], SN Team
К2 НейроТех представил рынку российский ПАК для AI/ML-задач на Tech2b ConfПервая презентация программно-аппаратного комплекса (ПАК) для задач машинного обучения (ML) и искусственного интеллекта (AI) от К2 НейроТех состоялась на московской конференции «Tech2b Conf: время инфраструктурных решений». Более 500 специалистов ИТ-отрасли посетили мероприятие и смогли осмотреть решение. 3 сентября на площадке Tech2b Conf состоялось первое выступление команды нового бренда на рынке суперкомпьютеров России — К2 НейроТех. Бренд объединяет в себе компетенции команды высококвалифицированных инженеров, разработчиков и системных архитекторов по проектированию, поддержке и масштабированию суперкомпьютерных кластеров. Один из знаковых проектов команды — суперкомпьютер «Оракул» для разработки новых материалов, возведенный в дата-центре на базе Новосибирского государственного университета. «Оракул» стал победителем конкурса «Проект года 2023» Global CIO и занял 2 место на премии CIPR Digital-2024. «Раньше западные производители предлагали суперкомпьютеры как моновендорные решения в отлаженных конфигурациях. Сегодня же приобрести эти решения невозможно, так как нет доступа к ПО промежуточного слоя. Кроме того, мало у кого сейчас есть практический опыт по созданию систем на базе отечественного оборудования с учетом оптимизации производительности. Команда К2 НейроТех уже более 10 лет реализует проекты по созданию суперкомпьютерных кластеров. Более 60 вендоров российского ПО и оборудования являются нашими партнерами. Поэтому помимо услуг, сегодня мы предлагаем рынку суперкомпьютерные ПАКи для задач высокопроизводительных вычислений (HPC), а также машинного обучения и ИИ», — заявил Олег Вишняк, директор по продвижению решений К2 НейроТех. Представленный на Tech2b Conf ПАК на базе AI/ML-платформы рассчитан для применения в промышленном секторе (цифровые двойники и управление ими), в ритейле (рекомендательные системы, прогнозирование спроса и генерация контента), в финсекторе (антифродовые системы, обработка транзакций и анализ рисков) и других отраслях экономики. Пиковая производительность ПАК-ML достигает 536 ТФлопс (TFP64) на один вычислительный сервер. ПАК-ML включает в себя российские аппаратные и программные решения из реестров Минцифры и Минпромторга. За счет чего снижаются риски, связанные с зависимостью от зарубежных поставок, и появляются возможности для стабильной техподдержки решений и дальнейшего их масштабирования под запрос.
19.09.2024 [20:06], Юрий Лебедев
HPE представила компактный edge-сервер ProLiant DL145 Gen11 на базе AMD EPYC SienaHPE представила компактный однопроцессорный 2U-сервер ProLiant DL145 Gen11 на базе AMD EPYC 8004 Siena, предназначенный для перифийных вычислений, для которых характерен дефицит энергии, пространства или возможностей охлаждения. Сервер способен функционировать при температурах от -5 °C до +55 °C, имеет защиту от пыли и устойчив к вибрациям. Возможна установка 64-ядерного CPU с TDP до 200 Вт. Есть шесть слотов (1DPC) для модулей памяти DDR5-4800 ECC суммарной ёмкостью до 768 Гбайт. Дисковая корзина поддерживает установку двух SATA SFF или шести NVMe E3.S-накопителей. Опционально можно установить проприетарный модуль с двумя 480-Гбайт M.2 NVMe SSD, собранных в RAID1, для ОС. Для карт расширения доступно три слота PCIe 5.0 x16: два FHFL и один FHHL. Также есть слот OCP 3.0, тоже PCIe 5.0 x16. Сервер оснащён системой удалённого управления iLO 6 с выделенным 1GbE-портом. Также на заднюю панель выведены четыре порта USB 3.0 Type-A и разъём DisplayPort. Опционально доступен последовательный порт с разъёмом RJ45. Для питания используются один или два (1+1) БП с сертификацией Platinum/Titanium мощностью 700 или 1000 Вт. Доступен и 700-Вт блок питания 48 В DC. Система вентиляции включает четыре вентилятора с резервированием N+1. БП, все порты и слоты для удобства выведены на переднюю панель сервера. Фронтальная крышка может быть оснащена воздушным фильтром для защиты от пыли. Есть датчик вскрытия корпуса, блокировка передней панели и гнездо замка Kensington. Устройство имеет габариты 875 × 359 × 406 мм и весит до 15,6 кг. Возможно размещение как на столе/стене, так и в телекоммуникационной стойке. Новинка будет доступна в рамках HPE GreenLake.
19.09.2024 [16:07], Руслан Авдеев
Snowhawk инвестировала в CleanArc Data Centers, которая займётся постройкой 600-МВт ЦОД в ВирджинииИнвестиционная компания Snowhawk LP вложила средства в застройщика ЦОД CleanArc Data Centers, но подробности сделки пока не разглашаются. По данным Datacenter Dynamics, инвестиции направят на возведение ЦОД гиперскейл-класса ёмкостью от 300 МВт в кампусах площадью 80–280 га. CleanArc основана в 2023 году инвестиционной компанией 547 Energy, занимающейся развитием «чистой» энергетики и смежными проектами. Возглавил новую структуры ветеран индустрии — основатель Vantage Data Centers Джим Траут (Jim Trout). Траут был основателем Proferian, занимающейся консалтингом в сфере ЦОД, занимал высокие посты в Digital Realty и ProLogis, а также был президентом CoreSite (CRG West). Vantage Data Centers бизнесмен оставил в 2013 году. Недавно CleanArc приобрела землю в штате Вирджиния. Компания планирует получить 600 МВт для кампуса площадью 260 га на территории, уже зонированной для использования под ЦОД. CleanArc и Rappahannock Electric Cooperative заключили соглашение о начале строительства на территории первой подстанции. В CleanArc ожидают, что инфраструктура на 300 МВт будет готова к эксплуатации уже в 2027 году. Если, конечно, местные жители и власти не передумают. В Snowhawk заявили, что «в восторге» от партнёрства с командой CleanArc. В компании видят огромные возможности для инвестиций в облачные и ИИ-проекты. Сама CleanArc также сотрудничает с партнёрами, которые обеспечат ветряную, солнечную и другие типы возобновляемой энергии для компенсации энергопотребления своих кампусов. Компания намерена обеспечить будущих клиентов-гиперскейлеров «безуглеродным» электричеством. Основанная в 2022 году Snowhawk представляет собой частную инвестиционную компанию, ориентирующуюся на вложения в облачные проекты, телекоммуникации и технологические сервисы. 547 Energy представляет собой платформу для инвестиций в «чистую» энергетику и принадлежит Quantum Energy Partners. Последняя основана в 1998 году и занимается инвестициями в энергетический сектор.
18.09.2024 [20:29], Владимир Мироненко
3Logic Group создал системного интегратора «Берегит»Российский дистрибьютор электроники 3Logic Group объявил о создании системного интегратора «Берегит», ориентированного на крупные и средние компании. Он использует решения зарубежных вендоров и их аналоги, а также оборудование и ПО из реестров Минпромторга и Минцифры России, опираясь на возможности 3Logic Group в части обеспечения наличия необходимого заказчикам ИТ-оборудования. Как сообщили в 3Logic Group «Коммерсанту», интегратор будет использовать и решения собственных торговых марок дистрибутора, включая Crusader и «Гравитон» (50 % у 3Logic Group). В настоящее время «Берегит» предлагает полный спектр услуг по проектированию, внедрению и поддержке комплексных ИТ-решений, в том числе построение телеком- и ИТ-инфраструктур:
В числе преимуществ интегратора заявлены гарантированная доступность необходимого для проектов ИТ-оборудования благодаря имеющимся возможностям 3Logic Group в логистике и обеспечении поставок, а также наличию у неё необходимого портфеля ИТ-решений, что позволит сохранить стоимость проектов и соблюсти срокы их выполнения. ![]() Источник изображения: «Берегит» Команда «Берегит» включает опытных специалистов, участвовавших в реализации более 100 проектов построения ИТ-инфраструктуры. Сотрудники «Берегит» сертифицированы по работе с зарубежными и российскими ИТ-решениями. Штат компании насчитывает более 80 специалистов, работающих в настоящее время над выполнением 70 проектов. «В современных реалиях доступность оборудования и экспертиза, подкреплённая разносторонним опытом внедрения, — два слагаемых успеха интегратора нового времени», — отметил исполнительный директор «Берегит», добавив, что в ближайшее время будут представлены первые значимые проекты, которые продемонстрируют большой потенциал компании.
17.09.2024 [23:07], Игорь Осколков
Швейцария ввела в эксплуатацию гибридный суперкомпьютер Alps: 11 тыс. NVIDIA GH200, 2 тыс. AMD EPYC Rome и щепотка A100, MI250X и MI300AШвейцарская высшая техническая школа Цюриха (ETH Zurich) провела церемонию официального запуска суперкомпьютера Alps в Швейцарском национальном суперкомпьютерном центре (CSCS) в Лугано. Система, построенная HPE, уже заняла шестую строчку в последнем рейтинге TOP500 и имеет устоявшеюся FP64-производительность 270 Пфлопс (теоретический пик — 354 Пфлопс). К ноябрю будут введены в строй остальные модули машины, и её максимальная производительность составит порядка 500 Пфлопс. ![]() Источник изображений: CSCS В июньском рейтинге TOP500 участвовал раздел из 2688 узлов HPE Cray EX254n с «фантастической четвёркой» NVIDIA Quad GH200. Если точнее, это всё же «старый» вариант ускорителя с H100 (96 Гбайт HBM3), 72-ядерным Arm-процессором Grace и 128 Гбайт LPDDR5x — суммарно 10 752 Grace Hopper. Данный раздел потребляет 5,2 МВт и в Green500 находится на 14 месте. Узлы, конечно же, используют СЖО. Это основной, но не единственный раздел суперкомпьютера. Ещё в 2020 году HPE развернула 1024 двухпроцессорных узла с 64-ядерными AMD EPYC 7742 (Rome) и 256/512 Гбайт RAM. Его производительность составляет 4,7 Пфлопс. Кроме того, в состав Alps входят 144 узла с одним 64-ядерным AMD EPYC, 128 Гбайт RAM и четырьмя NVIDIA A100 (80 или 96 Гбайт HBM2e). Наконец, машина получит 24 узла с одним 64-ядерным AMD EPYC, 128 Гбайт RAM и четырьмя AMD Instinct MI250X (128 Гбайт HBM2e) и 128 узлов с четырьмя гибридными ускорителями AMD Instinct MI300A. Большая часть узлов будет объединена интерконнектом HPE Slingshot-11: 200G-подключение на узел или ускоритель. Более точную конфигурацию системы раскроют в ноябре. Lustre-хранилище для будущей машины обновили ещё в прошлом году. Основной СХД является Cray ClusterStor E1000 с подключением Slingshot-11. Так, было добавлено 100 Пбайт полезной HDD-ёмкости (8480 × 16 Тбайт) с пропускной способностью 1 Тбайт/с (300 тыс. IOPS на запись, 1,5 млн IOPS на чтение) и 5 Пбайт SSD, а также резервные ёмкости. За архивное хранение отвечают две ленточные библиотеки объёмом 130 Пбайт каждая. Особенностью системы является её геораспределённость (фактически узлы размещены в четырёх местах) и облачная модель использования. Так, метеослужба страны MeteoSwiss получила в своё распоряжение выделенный виртуальный кластер, что уже позволило перейти на использование метеомодели более высокого разрешения, которая лучше отражает сложный рельеф Швейцарии. Кроме того, для подстраховки часть узлов Alps размещена на территории Федеральной политехнической школы Лозанны (EPFL). Alps приходит на смену суперкомпьютеру Piz Daint (Cray XC50/40, 21,2 Пфлопс), о завершении жизненного цикла которого было объявлено в конце июля 2024 года. В CSCS пока останутся машины Arolla + Tsa (для нужд MeteoSwiss) и Blue Brain 5 (решает задачи реконструкции и симуляции мозга). Alps же помимо традиционных HPC-нагрузок, будет использоваться для разработки ИИ-решений. |
|