Материалы по тегу: hardware
17.11.2024 [11:37], Сергей Карасёв
«Систэм Электрик» представила модульные ИБП Excelente VS мощностью до 150 кВтРоссийская компания «Систэм Электрик» (Systême Electric, ранее Schneider Electric в России) объявила о начале продаж локализованных модульных источников бесперебойного питания (ИБП) серии Excelente VS. Устройства, по заявлениям разработчика, предназначены для защиты критически важных нагрузок. Напомним, ранее в семействе Excelente были доступны решения Excelente VM (50–300 кВА), Excelente VL (350–600 кВА) и Excelente VX (100–1200 кВА). Они обеспечивают до 96,6 % КПД в режиме двойного преобразования и до 99 % в режиме ECO. В случае новых ИБП серии Excelente VS мощность со встроенными модульными батареями может варьироваться от 30 до 60 кВА/кВт, с внешними батареями — от 30 до 150 кВА/кВт. В первом случае заказчик получает такие преимущества, как снижение занимаемой площади, удобное обслуживание без необходимости выключения ИБП и сокращение времени обслуживания всей системы питания, говорит компания. Версии с внешними литий-ионными аккумуляторами предлагают длительный срок службы батареи, повышенную ёмкость и более высокую температурную устойчивость. Единичный коэффициент мощности по выходу (PF=1), как заявляет «Систэм Электрик», позволяет рассчитывать необходимый уровень защиты для текущей инфраструктуры без лишних затрат. Диапазон входных напряжений — от 135 до 485 В. Кроме того, говорится о высокой перегрузочной способности. Заявленный КПД достигает 96 % в режиме двойного преобразования (On-Line) и 99 % в режиме ECO. Устройства базируются на модульной архитектуре с возможностью горячей замены. Допускается параллельная работа до шести ИБП одновременно. В оснащение входят информационный дисплей, коммуникационные интерфейсы (SNMP, RS485 и USB), кнопка EPO для аварийного отключения, а также пылевой фильтр с быстрым доступом (находится за фронтальной панелью). Systeme Electric отмечает, что ИБП можно адаптировать для сложных проектов в средних и крупных дата-центрах, а также в сфере критически важной коммерческой и промышленной инфраструктуры. Устройства серии Excelente VS производится на площадке «Систэм Электрик» в особой экономической зоне «Технополис Москва».
17.11.2024 [11:32], Сергей Карасёв
NEC создаст в Японии суперкомпьютер на базе Intel Xeon 6900P и AMD Instinct MI300A для исследований термоядерного синтезаКорпорация NEC займётся созданием нового НРС-комплекса, который планируется ввести в эксплуатацию в Японии в июле 2025 года. Система, базирующаяся на компонентах AMD и Intel, будет использоваться для различных исследований и разработок в области термоядерного синтеза. Заказ на создание суперкомпьютера поступил от Национальных институтов квантовой науки и технологий Японии (QST) при Национальном агентстве исследований и разработок (ANID), а также от Национального института термоядерных наук (NIFS) в составе Национальных институтов естественных наук (NINS). Система будет установлена в Институте термоядерной энергии Rokkasho (входит в QST) в Аомори (Япония). Основой проектируемого суперкомпьютера послужат 360 узлов NEC LX 204Bin-3, в состав каждого из которых войдут два процессора Intel Xeon 6900P поколения Granite Rapids (всего 720 чипов) и память DDR5 MRDIMM. Кроме того, будут задействованы 70 узлов NEC LX 401Bax-3GA, несущих на борту по четыре ускорителя AMD Instinct MI300A (в общей сложности 280 изделий). Говорится о применении интерконнекта InfiniBand с 400G-коммутаторами NVIDIA QM9700, а также хранилища DDN EXAScaler ES400NVX2 вместимостью 42,2 Пбайт с файловой системой Lustre. Для управления рабочими нагрузками будет использоваться софт Altair PBS Professional. Ожидается, что производительность суперкомпьютера достигнет 40,4 Пфлопс. Это в 2,7 раза больше суммарных показателей двух нынешних НРС-систем, установленных в рамках независимых проектов QST и NIFS. Учёные намерены применять новый НРС-комплекс для точного прогнозирования экспериментов и создания сценариев работы для Международного экспериментального термоядерного реактора (ITER). Кроме того, мощности суперкомпьютера будут востребованы исследовательскими группами токамака Satellite Tokamak JT-60SA и электростанции DEMO (DEMOnstration Power Plant), использующей термоядерный синтез.
16.11.2024 [21:17], Руслан Авдеев
Bloom Energy поставит ИИ ЦОД топливные элементы на 1 ГВтРазработчик газовых топливных элементов Bloom Energy подписал с одной из крупнейших энергетических компаний США — American Electric Power (AEP) соглашение о поставке твердооксидных ячеек (SOFC) совокупной мощностью до 1 ГВт, которые AEP намерена использовать в качестве ещё одного источника питания ИИ ЦОД. Изначально AEP рассчитывает получить 100 МВт, а в 2025 году заказать ещё одну партию элементов, сообщает Datacenter Dynamics. Топливные элементы Bloom Energy могут работать на водороде или любых смесях природных газов. Впрочем, на данный момент речь идёт только об использовании природного газа, который не считается в отрасли по-настоящему «зелёным» в отличие от некоторых видов водорода. Bloom Energy уже заключила несколько знаковых сделок в секторе ЦОД в 2024 году. В июле облачный провайдер CoreWeave сообщил о намерении внедрять топливные ячейки Bloom в Иллинойсе. Ожидается, что система питания на их основе будет готова к сдаче в III квартале 2025 года. В июле же Bloom Energy заключила соглашение на 15 лет о поставке планируемому дата-центру AWS в Кремниевой долине Amazon (AWS) 20 МВт от топливных элементов. Впрочем, у компании в 2024 году были и некоторые проблемы с реализацией проектов. В июне Amazon отказалась от контракта на покупку ячеек для ЦОД в Орегоне, хотя Bloom Energy в этом не виновата. В 2023 году стороны заключили соглашение, предусматривавшее поставку элементов на 24 МВт. На тот момент их продвигали в качестве локального низкоуглеродного источника питания трёх ЦОД AWS. Однако в данной местности большая часть энергии поступает от ГЭС, поэтому местный регулятор решил, что использование топливных элементов зря приведёт к выбросам, эквивалентным 250 тыс. т CO2 ежегодно.
16.11.2024 [20:59], Сергей Карасёв
Стартап xAI Илона Маска получит от арабов $5 млрд на покупку ещё 100 тыс. ускорителей NVIDIAКак сообщает CNBC, стартап xAI Илона Маска (Elon Musk) привлёк многомиллиардные инвестиции: деньги будут направлены на закупку ускорителей NVIDIA для расширения вычислительных мощностей ИИ-суперкомпьютера. Напомним, в начале сентября нынешнего года компания xAI запустила ИИ-кластер Colossus со 100 тыс. ускорителей NVIDIA H100. В составе платформы применяются серверы Supermicro, узлы хранения типа All-Flash, адаптеры SuperNIC, а также СЖО. Суперкомпьютер располагается в огромном дата-центре в окрестностях Мемфиса (штат Теннесси). Как теперь стало известно, в рамках нового раунда финансирования xAI привлечёт $6 млрд. Из них $5 млрд поступит от суверенных фондов Ближнего Востока, а ещё $1 млрд — от других инвесторов, имена которых не раскрываются. При этом рыночная стоимость стартапа достигнет $50 млрд. О том, что xAI получит дополнительные средства на развитие, также сообщает Financial Times. По данным этой газеты, речь идёт о $5 млрд при капитализации стартапа на уровне $45 млрд. Ранее Маск говорил о намерении удвоить производительность Colossus: для этого, в частности, планируется приобрести примерно 100 тыс. ИИ-ускорителей, включая 50 тыс. изделий NVIDIA H200. Судя по всему, привлеченные средства стартап также направит на покупку других решений NVIDIA, в том числе коммутаторов Spectrum-X SN5600 и сетевых карт на базе BlueField-3. Между тем жители Мемфиса выражают недовольство в связи с развитием ИИ-комплекса xAI. Активисты, в частности, обвиняют стартап в том, что используемые на территории его дата-центра генераторы ухудшают качество воздуха в регионе.
16.11.2024 [20:49], Сергей Карасёв
Сандийские национальные лаборатории запустили ИИ-систему Kingfisher на огромных чипах Cerebras WSE-3Сандийские национальные лаборатории (SNL) Министерства энергетики США (DOE) в рамках партнёрства с компанией Cerebras Systems объявили о запуске кластера Kingfisher, который будет использоваться в качестве испытательной платформы при разработке ИИ-технологий для обеспечения национальной безопасности. Основой Kingfisher служат узлы Cerebras CS-3, которые выполнены на фирменных ускорителях Wafer Scale Engine третьего поколения (WSE-3). Эти гигантские изделия содержат 4 трлн транзисторов, 900 тыс. ядер и 44 Гбайт памяти SRAM. Суммарная пропускная способность встроенной памяти достигает 21 Пбайт/с, внутреннего интерконнекта — 214 Пбит/с. На сегодняшний день платформа Kingfisher объединяет четыре узла Cerebras CS-3, а конечная конфигурация предусматривает использование восьми таких блоков. Узлы Cerebras CS-3 мощностью 23 кВт каждый содержат СЖО, подсистемы питания, сетевой интерконнект Ethernet и другие компоненты. Развёртывание кластера Cerebras CS-3 является частью программы Advanced Simulation and Computing (ASC), которая реализуется Национальным управлением по ядерной безопасности США (NNSA). Речь идёт, в частности, об инициативе ASC Artificial Intelligence for Nuclear Deterrence (AI4ND) — искусственный интеллект для ядерного сдерживания. Предполагается, что Kingfisher позволит разрабатывать крупномасштабные и надёжные модели ИИ с использованием защищённых внутренних ресурсов Tri-lab — группы, в которую входят Сандийские национальные лаборатории, Ливерморская национальная лаборатория имени Лоуренса (LLNL) и Лос-Аламосская национальная лаборатория (LANL) в составе (DOE).
15.11.2024 [19:50], Руслан Авдеев
ИИ-серверы NVIDIA помогут в управлении АЭС в КалифорнииКалифорнийский коммунальный оператор Pacific Gas and Electric Company (PG&E) намерен построить в Сан-Хосе кампус из трёх ЦОД с общей подведённой мощностью 200 МВт и внедрить ИИ-оборудование NVIDIA на площадке при АЭС Diablo Canyon, передаёт Datacenter Dynamics. В рамках совместного проекта PG&E Corporation с застройщиком Westbank в Сан-Хосе появятся три дата-центра и более 4 тыс. единиц жилья. Локальная энергосистема свяжет дата-центры и близлежащие районы, благодаря чему можно будет использовать тепло дата-центров для отопления и подачи горячей воды в соседние здания, что позволит добиться нулевых углеродных выбросов. Также PG&E объявила о NVIDIA развёртывании ИИ-оборудования NVIDIA и программных ИИ-решений Atomic Canyon на АЭС Diablo Canyon Power Plant. В NVIDIA уже заявили, что внедрение ИИ строго регулируемыми отраслями вроде атомной энергетики открывает новые возможности, а продукты Atomic Canyon будут способствовать росту операционной эффективности отрасли. В частности, речь идёт о решении Neutron Enterprise на базе семейства ИИ-моделей FERMI компании Atomic Canyon, которые разработаны совместно с учёными Министерства энергетики США. Решение предназначено для ядерных объектов и в основном применяется для работы с документацией. Предполагается, что это обеспечит значительную экономию средств и повысит эффективность и безопасность работы АЭС. ИИ-продукты Atomic Canyon позволят быстрее получать и обрабатывать данные. Как отмечает Reuters, решение о внедрении ИИ — не просто дань моде. Станцию уже планировали закрыть, но отложили этот процесс в 2022 году из-за необходимости достижения планируемых показателей «безуглеродности» в штате. В Diablo Canyon насчитывается 9 тыс. различных процедур и 9 млн. документов, многие на микрофильмах. Для того, чтобы PG&E могла сохранить федеральную лицензию на эксплуатацию в течение ещё 20 лет, необходимо сформировать планы управления АЭС с учётом её старения. Значительную часть информации предстоит получить из документов, подготовленных десятилетия назад. ИИ, обученный на таких документах, поможет найти в огромном массиве необходимые материалы, в том числе на микрофильмах, а в будущем сможет помочь в составлении расписаний обслуживания станции, принимающих в расчёт множество факторов. При этом весь ИИ-комплекс работает автономно и не имеет прямого выхода глобальную Сеть. АЭС Diablo Canyon Power Plant была запущена в 1985 году. Совокупная мощность двух реакторов Westinghouse составляет порядка 2,25 ГВт. Это единственная оставшаяся в Калифорнии действующая атомная электростанция и она обеспечивает подачу почти 9 % электроэнергии штата, а также 17 % энергии с нулевым углеродным выбросом.
15.11.2024 [14:40], Руслан Авдеев
Т-Банк создаст собственную сеть дата-центровВходящий в состав «ТКС Холдинга» Т-Банк заявил о намерении создать собственную инфраструктуру дата-центров. По словам вице-президента банка, первый ЦОД компания готовится ввести в эксплуатацию в 2027 году, а сама сеть будет сформирована к 2031 году, сообщает «Интерфакс». Несмотря на сложную инвестиционную обстановку решено «двигаться в этом направлении», говорит банк. Реализация плана строительства сети ЦОД будет осуществляться по уникальной модели. Сообщается, что банк собирается использовать технологию фрикулинга. Эта методика широко распространена в технологическом секторе, но пока в промышленных масштабах не использовалась в российской финансовой сфере, хотя некоторые дата-центры российских компаний уже используют её. Благодаря этому снизятся затраты как на строительство, так и на эксплуатацию ЦОД. Пока Т-Банк не располагал собственными значимыми мощностями для обработки данных, арендуя необходимые ресурсы. Тем не менее, согласно данным ЕГРОЮЛ, в ноябре 2024 года зарегистрировано юридическое лицо «Т-ЦОД-2», задачей которого станет деятельность в области вычислительных технологий и IT. В компании утверждают, что намерены и дальше инвестировать в технологические платформы, обеспечивающие дальнейшее масштабирование бизнеса. На днях сообщалось, что Сбербанку и Т-Банку всё труднее искать в России площадки для ИИ ЦОД.
15.11.2024 [13:50], Руслан Авдеев
Операторы ЦОД выстроились в очередь, чтобы получить 750 МВт от SMR компании OkloПоддерживаемый Сэмом Альтманом (Sam Altman) стартап Oklo сообщил о получении запросов на поставку 750 МВт для ЦОД в США. Потенциальные клиенты не называются, но известно, что общая мощность планируемых к строительству реакторов Oklo в результате должна вырасти до 2,1 ГВт. Как сообщает The Register, разработки Oklo, вероятно, основаны на экспериментальной модели Experimental Breeder Reactor II (EBR-II) и используют жидкостно-металлическое охлаждение. Такие реакторы способны генерировать 15–50 МВт энергии, в зависимости от конфигурации. Это означает, что неназванные клиенты Oklo в общей сложности намерены использовать 15–50 реакторов для удовлетворения их запросов. Впрочем, до получения реальных поставок пока далеко. На сайте Oklo сообщается, что до конца десятилетия должна заработать только первая электростанция. До этого компания должна получить разрешение у Комиссии по ядерному регулированию США, необходимые заявки уже поданы. В 2022 году регулятор уже отклонил план строительства SMR компанией, сославшись на «значительные информационные пробелы», связанные с мерами, принимаемыми для обеспечения безопасности. Позже Oklo получила поддержку правительственных ведомств. Министерство энергетики выдало разрешение на использование площадки, а Национальная лаборатория Айдахо (где находится EBR-II) выделила топливо для поддержки проекта. При этом Oklo может избежать проблем, с которыми сталкиваются другие «атомные» стартапы вроде Terrapower. Реакторы Oklo предназначены для уже отработанного ядерного топлива от обычных реакторов. Фактически стартап сейчас сотрудничает с лабораториями Министерства энергетики для разработки новых технологий утилизации отработанного топлива. Oklo рассчитывает представить план переработки коммерческого уровня к началу 2030-х годов. Ранее сообщалось, что Okla ищет главу ЦОД-направления. В прошлом месяце Amazon (AWS) объявила о поддержке трёх новых атомных проектов, включая строительство нескольких SMR компанией X-energy. Amazon является одним из её крупнейших инвесторов в ходе раунда финансирования серии C на $500 млн. Oracle также анонсировала получение разрешений на строительство трёх SMR для питания ИИ ЦОД ёмкостью более 1 ГВТ. Тем временем Google заключила соглашение с Kairos Power для удовлетворения собственных энергетических потребностей. Несмотря на весь ажиотаж, связанный с SMR, технология всё ещё не доказала своей экономической целесообразности, хотя идея построения небольших и мощных источников энергии буквально в любом месте слишком хороша, чтобы ЦОД отказались от неё. В любом случае SMR будут нет так уж доступны. Эксперты утверждают, что SMR «слишком дороги, медленно строятся и слишком рискованны для того, чтобы играть значимую роль в отказе от ископаемого топлива». NuScale, одной из первых получившая одобрения собственного проекта SMR, уже, возможно, пожалела об этом. Стартап планировал построить шесть реакторов на 462 МВт в Юте, но высокие цены оттолкнули потребителей и проект в конечном счёте просто забросили. Даже участие в проектах с обычными АЭС не гарантирует успех. AWS в этом году приобрела за $650 млн кампус ЦОД Cumulus Data около АЭС Susquehanna в Пенсильвании и планировала построить там 15 ЦОД. Тем не менее к ноябрю регулятор отказал в увеличении подачи энергии на площадку, хотя компания не намерена отказываться от проекта. Бывает и хуже. Meta✴ рассчитывала построить «атомные ЦОД», но на необходимой ей площадке обнаружился редкий вид пчёл, поэтому от проекта пришлось отказаться.
15.11.2024 [10:33], Сергей Карасёв
«Росэлектроника» создаст суперкомпьютер нового поколения для РАН
hardware
hpc
ангара
импортозамещение
ницэвт
погружное охлаждение
россия
росэлектроника
сделано в россии
сжо
суперкомпьютер
Холдинг «Росэлектроника», входящий в госкорпорацию «Ростех», анонсировал проект нового НРС-комплекса, который будет создан для Объединённого института высоких температур Российской академии наук (ОИВТ РАН). Особенностью суперкомпьютера станет применение российского интерконнекта «Ангара». Система разрабатывается в рамках соглашения, заключенного между НИЦЭВТ (входит в «Росэлектронику») и ОИВТ РАН. При проектировании машины планируется использовать опыт разработки и производства суперкомпьютеров НИЦЭВТ предыдущих поколений — «Ангара-К1», Desmos и Fisher. Отмечается, что коммуникационная сеть «Ангара», созданная специалистами НИЦЭВТ, предназначена для построения мощных суперкомпьютеров, вычислительных кластеров для обработки больших данных и расчётов на основе сверхмасштабируемых параллельных алгоритмов. Помимо «Ангары», в составе проектируемого HPC-комплекса будут задействованы технологии погружного охлаждения. На сегодняшний день участники проекта прорабатывают технические характеристики создаваемого суперкомпьютера — количество узлов, объём памяти, архитектуру процессоров и число ядер. Особое внимание будет уделяться максимально возможному использованию отечественной элементной базы. Целевые показатели производительности системы не раскрываются, но говорится, по величине пикового быстродействия она превзойдёт предшественников. Суперкомпьютер планируется применять для проведения научно-исследовательских, опытно-конструкторских и технологических работ на базе образовательных учреждений и промышленных предприятий РФ. «Стратегическое партнёрство с НИЦЭВТ позволит нам совместно создать высокопроизводительную вычислительную систему и расширить наши возможности в исследовании сложных процессов в энергетике и теплофизике. ОИВТ РАН обладает большим опытом использования передовых вычислительных методов, включая методы первопринципного моделирования и молекулярной динамики для научных исследований. Увеличение мощности вычислительных ресурсов позволит значительно повысить точность, темп и эффективность наших исследований», — отметил директор ОИВТ РАН.
14.11.2024 [23:07], Владимир Мироненко
Google и NVIDIA показали первые результаты TPU v6 и B200 в ИИ-бенчмарке MLPerf TrainingУскорители Blackwell компании NVIDIA опередили в бенчмарках MLPerf Training 4.1 чипы H100 более чем в 2,2 раза, сообщил The Register. По словам NVIDIA, более высокая пропускная способность памяти в Blackwell также сыграла свою роль. Тесты были проведены с использование собственного суперкомпьютера NVIDIA Nyx на базе DGX B200. Новые ускорители имеют примерно в 2,27 раза более высокую пиковую производительность в вычисления FP8, FP16, BF16 и TF32, чем системы H100 последнего поколения. B200 показал в 2,2 раза более высокую производительность при тюнинге модели Llama 2 70B и в два раза большую производительность при предварительном обучении (Pre-training) модели GPT-3 175B. Для рекомендательных систем и генерации изображений прирост составил 64 % и 62 % соответственно. Компания также отметила преимущества используемой в B200 памяти HBM3e, благодаря которой бенчмарк GPT-3 успешно отработал всего на 64 ускорителях Blackwell без ущерба для производительности каждого GPU, тогда как для достижения такого же результата понадобилось бы 256 ускорителей H100. Впрочем, про Hopper компания тоже не забывает — в новом раунде компания смогла масштабировать тест GPT-3 175B до 11 616 ускорителей H100. Компания отметила, что платформа NVIDIA Blackwell обеспечивает значительный скачок производительности по сравнению с платформой Hopper, особенно при работе с LLM. В то же время чипы поколения Hopper по-прежнему остаются актуальными благодаря непрерывным оптимизациям ПО, порой кратно повышающим производительность в некоторых задач. Интрига в том, что в этот раз NVIDIA решила не показывать результаты GB200, хотя такие системы есть и у неё, и у партнёров. В свою очередь, Google представила первые результаты тестирования 6-го поколения TPU под названием Trillium, о доступности которого было объявлено в прошлом месяце, и второй раунд результатов ускорителей 5-го поколения TPU v5p. Ранее Google тестировала только TPU v5e. По сравнению с последним вариантом, Trillium обеспечивает прирост производительности в 3,8 раза в задаче обучения GPT-3, отмечает IEEE Spectrum. Если же сравнивать результаты с показателями NVIDIA, то всё выглядит не так оптимистично. Система из 6144 TPU v5p достигла контрольной точки обучения GPT-3 за 11,77 мин, отстав от системы с 11 616 H100, которая выполнила задачу примерно за 3,44 мин. При одинаковом же количестве ускорителей решения Google почти вдвое отстают от решений NVIDIA, а разница между v5p и v6e составляет менее 10 %. В тесте Stable Diffusion система из 1024 TPU v5p заняла второе место, завершив работу за 2,44 мин, тогда как система того же размера на основе NVIDIA H100 справилась с задачей за 1,37 мин. В остальных тестах на кластерах меньшего масштаба разрыв остаётся примерно полуторакратным. Впрочем, Google упирает на масштабируемость и лучшее соотношение цены и производительности в сравнении как с решениями конкурентов, так и с собственными ускорителями прошлых поколений. Также в новом раунде MLPerf появился единственный результат измерения энергопотребления во время проведения бенчмарка. Система из восьми серверов Dell XE9680, каждый из которых включал восемь ускорителей NVIDIA H100 и два процессора Intel Xeon Platinum 8480+ (Sapphire Rapids), в задаче тюнинга Llama2 70B потребила 16,38 мДж энергии, потратив на работу 5,05 мин. — средняя мощность составила 54,07 кВт. |
|