Материалы по тегу: c

19.09.2024 [20:06], Юрий Лебедев

HPE представила компактный edge-сервер ProLiant DL145 Gen11 на базе AMD EPYC Siena

HPE представила компактный однопроцессорный 2U-сервер ProLiant DL145 Gen11 на базе AMD EPYC 8004 Siena, предназначенный для перифийных вычислений, для которых характерен дефицит энергии, пространства или возможностей охлаждения. Сервер способен функционировать при температурах от -5 °C до +55 °C, имеет защиту от пыли и устойчив к вибрациям.

 Источник изображений: HPE

Источник изображений: HPE

Возможна установка 64-ядерного CPU с TDP до 200 Вт. Есть шесть слотов (1DPC) для модулей памяти DDR5-4800 ECC суммарной ёмкостью до 768 Гбайт. Дисковая корзина поддерживает установку двух SATA SFF или шести NVMe E3.S-накопителей. Опционально можно установить проприетарный модуль с двумя 480-Гбайт M.2 NVMe SSD, собранных в RAID1, для ОС. Для карт расширения доступно три слота PCIe 5.0 x16: два FHFL и один FHHL. Также есть слот OCP 3.0, тоже PCIe 5.0 x16.

Сервер оснащён системой удалённого управления iLO 6 с выделенным 1GbE-портом. Также на заднюю панель выведены четыре порта USB 3.0 Type-A и разъём DisplayPort. Опционально доступен последовательный порт с разъёмом RJ45. Для питания используются один или два (1+1) БП с сертификацией Platinum/Titanium мощностью 700 или 1000 Вт. Доступен и 700-Вт блок питания 48 В DC. Система вентиляции включает четыре вентилятора с резервированием N+1.

БП, все порты и слоты для удобства выведены на переднюю панель сервера. Фронтальная крышка может быть оснащена воздушным фильтром для защиты от пыли. Есть датчик вскрытия корпуса, блокировка передней панели и гнездо замка Kensington. Устройство имеет габариты 875 × 359 × 406 мм и весит до 15,6 кг. Возможно размещение как на столе/стене, так и в телекоммуникационной стойке. Новинка будет доступна в рамках HPE GreenLake.

Постоянный URL: http://servernews.ru/1111189
19.09.2024 [16:07], Руслан Авдеев

Snowhawk инвестировала в CleanArc Data Centers, которая займётся постройкой 600-МВт ЦОД в Вирджинии

Инвестиционная компания Snowhawk LP вложила средства в застройщика ЦОД CleanArc Data Centers, но подробности сделки пока не разглашаются. По данным Datacenter Dynamics, инвестиции направят на возведение ЦОД гиперскейл-класса ёмкостью от 300 МВт в кампусах площадью 80–280 га.

CleanArc основана в 2023 году инвестиционной компанией 547 Energy, занимающейся развитием «чистой» энергетики и смежными проектами. Возглавил новую структуры ветеран индустрии — основатель Vantage Data Centers Джим Траут (Jim Trout). Траут был основателем Proferian, занимающейся консалтингом в сфере ЦОД, занимал высокие посты в Digital Realty и ProLogis, а также был президентом CoreSite (CRG West). Vantage Data Centers бизнесмен оставил в 2013 году.

Недавно CleanArc приобрела землю в штате Вирджиния. Компания планирует получить 600 МВт для кампуса площадью 260 га на территории, уже зонированной для использования под ЦОД. CleanArc и Rappahannock Electric Cooperative заключили соглашение о начале строительства на территории первой подстанции. В CleanArc ожидают, что инфраструктура на 300 МВт будет готова к эксплуатации уже в 2027 году. Если, конечно, местные жители и власти не передумают.

 Источник изображения: CleanArc

Источник изображения: CleanArc

В Snowhawk заявили, что «в восторге» от партнёрства с командой CleanArc. В компании видят огромные возможности для инвестиций в облачные и ИИ-проекты. Сама CleanArc также сотрудничает с партнёрами, которые обеспечат ветряную, солнечную и другие типы возобновляемой энергии для компенсации энергопотребления своих кампусов. Компания намерена обеспечить будущих клиентов-гиперскейлеров «безуглеродным» электричеством.

Основанная в 2022 году Snowhawk представляет собой частную инвестиционную компанию, ориентирующуюся на вложения в облачные проекты, телекоммуникации и технологические сервисы. 547 Energy представляет собой платформу для инвестиций в «чистую» энергетику и принадлежит Quantum Energy Partners. Последняя основана в 1998 году и занимается инвестициями в энергетический сектор.

Постоянный URL: http://servernews.ru/1111212
18.09.2024 [20:29], Владимир Мироненко

3Logic Group создал системного интегратора «Берегит»

Российский дистрибьютор электроники 3Logic Group объявил о создании системного интегратора «Берегит», ориентированного на крупные и средние компании. Он использует решения зарубежных вендоров и их аналоги, а также оборудование и ПО из реестров Минпромторга и Минцифры России, опираясь на возможности 3Logic Group в части обеспечения наличия необходимого заказчикам ИТ-оборудования. Как сообщили в 3Logic Group «Коммерсанту», интегратор будет использовать и решения собственных торговых марок дистрибутора, включая Crusader и «Гравитон» (50 % у 3Logic Group).

В настоящее время «Берегит» предлагает полный спектр услуг по проектированию, внедрению и поддержке комплексных ИТ-решений, в том числе построение телеком- и ИТ-инфраструктур:

  • вычислительных инфраструктур;
  • сетевых коммуникаций;
  • систем мультимедиа;
  • корпоративной телефонии и контакт-центров.

В числе преимуществ интегратора заявлены гарантированная доступность необходимого для проектов ИТ-оборудования благодаря имеющимся возможностям 3Logic Group в логистике и обеспечении поставок, а также наличию у неё необходимого портфеля ИТ-решений, что позволит сохранить стоимость проектов и соблюсти срокы их выполнения.

 Источник изображения: «Берегит»

Источник изображения: «Берегит»

Команда «Берегит» включает опытных специалистов, участвовавших в реализации более 100 проектов построения ИТ-инфраструктуры. Сотрудники «Берегит» сертифицированы по работе с зарубежными и российскими ИТ-решениями. Штат компании насчитывает более 80 специалистов, работающих в настоящее время над выполнением 70 проектов.

«В современных реалиях доступность оборудования и экспертиза, подкреплённая разносторонним опытом внедрения, — два слагаемых успеха интегратора нового времени», — отметил исполнительный директор «Берегит», добавив, что в ближайшее время будут представлены первые значимые проекты, которые продемонстрируют большой потенциал компании.

Постоянный URL: http://servernews.ru/1111172
17.09.2024 [23:07], Игорь Осколков

Швейцария ввела в эксплуатацию гибридный суперкомпьютер Alps: 11 тыс. NVIDIA GH200, 2 тыс. AMD EPYC Rome и щепотка A100, MI250X и MI300A

Швейцарская высшая техническая школа Цюриха (ETH Zurich) провела церемонию официального запуска суперкомпьютера Alps в Швейцарском национальном суперкомпьютерном центре (CSCS) в Лугано. Система, построенная HPE, уже заняла шестую строчку в последнем рейтинге TOP500 и имеет устоявшеюся FP64-производительность 270 Пфлопс (теоретический пик — 354 Пфлопс). К ноябрю будут введены в строй остальные модули машины, и её максимальная производительность составит порядка 500 Пфлопс.

 Источник изображений: CSCS

Источник изображений: CSCS

В июньском рейтинге TOP500 участвовал раздел из 2688 узлов HPE Cray EX254n с «фантастической четвёркой» NVIDIA Quad GH200. Если точнее, это всё же «старый» вариант ускорителя с H100 (96 Гбайт HBM3), 72-ядерным Arm-процессором Grace и 128 Гбайт LPDDR5x — суммарно 10 752 Grace Hopper. Данный раздел потребляет 5,2 МВт и в Green500 находится на 14 месте. Узлы, конечно же, используют СЖО.

Это основной, но не единственный раздел суперкомпьютера. Ещё в 2020 году HPE развернула 1024 двухпроцессорных узла с 64-ядерными AMD EPYC 7742 (Rome) и 256/512 Гбайт RAM. Его производительность составляет 4,7 Пфлопс. Кроме того, в состав Alps входят 144 узла с одним 64-ядерным AMD EPYC, 128 Гбайт RAM и четырьмя NVIDIA A100 (80 или 96 Гбайт HBM2e).

Наконец, машина получит 24 узла с одним 64-ядерным AMD EPYC, 128 Гбайт RAM и четырьмя AMD Instinct MI250X (128 Гбайт HBM2e) и 128 узлов с четырьмя гибридными ускорителями AMD Instinct MI300A. Большая часть узлов будет объединена интерконнектом HPE Slingshot-11: 200G-подключение на узел или ускоритель. Более точную конфигурацию системы раскроют в ноябре.

Lustre-хранилище для будущей машины обновили ещё в прошлом году. Основной СХД является Cray ClusterStor E1000 с подключением Slingshot-11. Так, было добавлено 100 Пбайт полезной HDD-ёмкости (8480 × 16 Тбайт) с пропускной способностью 1 Тбайт/с (300 тыс. IOPS на запись, 1,5 млн IOPS на чтение) и 5 Пбайт SSD, а также резервные ёмкости. За архивное хранение отвечают две ленточные библиотеки объёмом 130 Пбайт каждая.

Особенностью системы является её геораспределённость (фактически узлы размещены в четырёх местах) и облачная модель использования. Так, метеослужба страны MeteoSwiss получила в своё распоряжение выделенный виртуальный кластер, что уже позволило перейти на использование метеомодели более высокого разрешения, которая лучше отражает сложный рельеф Швейцарии. Кроме того, для подстраховки часть узлов Alps размещена на территории Федеральной политехнической школы Лозанны (EPFL).

Alps приходит на смену суперкомпьютеру Piz Daint (Cray XC50/40, 21,2 Пфлопс), о завершении жизненного цикла которого было объявлено в конце июля 2024 года. В CSCS пока останутся машины Arolla + Tsa (для нужд MeteoSwiss) и Blue Brain 5 (решает задачи реконструкции и симуляции мозга). Alps же помимо традиционных HPC-нагрузок, будет использоваться для разработки ИИ-решений.

Постоянный URL: http://servernews.ru/1111113
16.09.2024 [14:55], Руслан Авдеев

Государство может возместить строителям суперкомпьютеров в России подключение к электросетям

Компаниям, занимающимся созданием суперкомпьютеров для обучения ИИ, возможно, будут возмещать расходы на техническое присоединение к электрическим сетям за счёт государственных средств. «Коммерсантъ» сообщает, что соответствующую меру поддержки готовятся включить в национальный проект «Экономика данных». Конечная цель госпроектов — удвоение совокупной мощности российских суперкомпьютеров к 2030 году. По оценкам, операторы дата-центров тратят до 10 % от стоимости реализации проекта на техническое присоединение.

Однако в случае ИИ-суперкомпьютеров, по словам экспертов, порядка 90 % расходов приходится на приобретение ускорителей и лишь около 10 % на капитальное строительство и подведение инженерной инфраструктуры. Некоторые эксперты утверждают, что в норме стоимость технического присоединения не превышает 2–3 % от общей стоимости проекта, но для бизнеса, строящего ЦОД для сдачи в аренду, цена будет выше, на уровне 3–10 %.

Некоторые эксперты уверены, что расходы будут значительными в первую очередь в том случае, если для ввода ЦОД в эксплуатацию придётся построить понижающую подстанцию. При этом подчёркивается, что ещё с 2020 года действует возмещение затрат на строительство дата-центров или их модернизацию. Речь идёт о компенсации 50 % трат на обеспечивающую инфраструктуру и до 100 % — на сопутствующую. Правда, как сообщают в Миноэкономики, никакие проекты в подобном формате сегодня не реализуются.

 Источник изображения: American Public Power Association/unsplash.com

Источник изображения: American Public Power Association/unsplash.com

Информация о льготах представлена в предварительном варианте текста федерального проекта «Искусственный интеллект» — его предлагают включить в нацпроект «Экономика данных», который должен стартовать в следующем году. Речь идёт именно о поддержке строителей суперкомпьютеров, оснащённых ускорителями (GPU), применяемых для обучения ИИ-систем. Государственная финансовая поддержка подключения к энергосетям будет распределяться по конкурсу, а оператор дата-центра в этом случае обязуется построить суперкомпьютер. В Минцифры сообщают, что новый проект финансирования находится на межведомственном голосовании и ещё не утверждён.

Предполагается, что в итоге совокупная ёмкость суперкомпьютеров для искусственного интеллекта должна достичь 300 Пфлопс (точность вычислений не указана) в 2027 году и до 1 Эфлопс — в 2030-м. Точкой отсчёта является базовое значение 2024 года, указанное на уровне 100 Пфлопс. По данным «Коммерсанта», компания Nebius AI, отделившаяся от «Яндекса», располагает суперкомпьютером ISEG с пиковой FP64-производительностью до 86,79 Пфлопс. В последнем рейтинге TOP500 машина занимает 19 место с фактической производительностью 46,54 Пфлопс. Всего же в списке есть семь российских суперкомпьютеров.

Постоянный URL: http://servernews.ru/1111026
14.09.2024 [12:35], Сергей Карасёв

Квартальный объём рынка корпоративного WLAN-оборудования рухнул почти на четверть

Компания International Data Corporation (IDC) обнародовала результаты исследования глобального рынка оборудования корпоративного класса для беспроводных локальных сетей (WLAN). Во II квартале 2024 года затраты составили $2,3 млрд, что практически на четверть — на 22,8 % — меньше по сравнению с результатом годичной давности.

Говорится, что во II половине 2022-го и I половине 2023 года на рассматриваемом рынке наблюдались повышенные темпы роста, обусловленные выполнением заказов, накопившихся в период пандемии COVID-19. Однако затем по мере восстановления работы производств и цепочек поставок отрасль вернулась к нормальному состоянию.

 Источник изображения: IDC

Источник изображения: IDC

Во II четверти текущего года около 30,0 % продаж в денежном выражении пришлось на точки доступа Dependent Access Point стандарта Wi-Fi 6E. Для сравнения, годом ранее такие решения обеспечили 14,3 % выручки. Постепенно начинают набирать популярность устройства стандарта Wi-Fi 7 с 2,8 % продаж. Львиную долю в оставшемся объёме выручки принесли продукты Wi-Fi 6.

Падение спроса зафиксировано во всех регионах. Так, в США продажи корпоративного WLAN-оборудования в годовом исчислении сократились на 30,6 %, в Западной Европе — на 22,3 %, в Центральной и Восточной Европе — на 21,5 %. В Азиатско-Тихоокеанском регионе (исключая Японию и Китай) зафиксировано снижение на 16,2 %, в КНР — на 9,8 %.

Крупнейшими производителями WLAN-решений по итогам II четверти 2024 года стали Cisco (39,6 %, или $922 млн), HPE Aruba Networking (14,8 %), Huawei (9,6 %), Ubiquiti (8,1 %) и Juniper Networks (5,1 %).

Постоянный URL: http://servernews.ru/1110972
14.09.2024 [12:13], Сергей Карасёв

Крошечный одноплатный компьютер NanoPi Zero2 оснащён портом 1GbE и коннектором М.2

Команда FriendlyElec, по сообщению ресурса CNX-Software, пополнила ассортимент одноплатных компьютеров моделью NanoPi Zero2: это одно из самых компактных на рынке устройств данного типа, сочетающих процессор с архитектурой Arm и ОС на ядре Linux. Размеры изделия составляют 45 × 45 мм, масса — 16,1 г.

Основой новинки служит процессор Rockchip RK3528A, который содержит четыре ядра Arm Cortex-A53 с частотой 2 ГГц и графический блок Arm Mali-450 с поддержкой OpenGL ES1.1, ES2.0, OpenVG 1.1. Возможно декодирование видео H265/H264 в формате 4K со скоростью 60 к/с. Объём памяти LPDDR4/LPDDR4X — 1 или 2 Гбайт.

 Источник изображения: CNX-Software

Источник изображения: CNX-Software

Одноплатный компьютер может быть укомплектован чипом eMMC; кроме того, предусмотрен слот для карты microSD. В оснащение входит сетевой адаптер 1GbE, а дополнительно можно установить модуль M.2 Key-E 2230 (PCIe 2.1) с поддержкой Wi-Fi и Bluetooth. В набор разъёмов включены по одному порту USB 2.0 Type-A и USB 2.0 Type-C (данные и питание 5 В), гнездо RJ-45 для сетевого кабеля. Имеется 30-контактная колодка FPC GPIO с поддержкой 17 × GPIO, 2 × PWM, 2 × UART, SPI, I2C, 2 × I2S, SPDIF Tx, GND. Для платы доступен металлический корпус с габаритами 49,5 × 49,5 × 25 мм. Диапазон рабочих температур простирается от 0 до +80 °C.

Возможно использование Debian 12 Core, Ubuntu 24.04, OpenMediaVault, FriendlyWrt (на основе OpenWrt 21.05 или 23.05) с ядром Linux 6.1 LTS. Цена NanoPi Zero2 с 1 Гбайт ОЗУ составляет $18. А за $54 можно приобрести модификацию с 2 Гбайт памяти, флеш-накопителем eMMC вместимостью 32 Гбайт, адаптером Wi-Fi 5 (RTL8822CE) с двумя антеннами и корпусом.

Постоянный URL: http://servernews.ru/1110967
13.09.2024 [10:22], Сергей Карасёв

Некогда самый мощный в мире суперкомпьютер Summit уйдёт на покой в ноябре

Высокопроизводительный вычислительный комплекс Summit, установленный в Окриджской национальной лаборатории (ORNL) Министерства энергетики США, будет выведен из эксплуатации в ноябре 2024 года. Обслуживать машину становится всё дороже, а по эффективности она уступает современным суперкомпьютерам.

Summit был запущен в 2018 году и сразу же возглавил рейтинг мощнейших вычислительных систем мира TOP500. Комплекс насчитывает 4608 узлов, каждый из которых оборудован двумя 22-ядерными процессорами IBM POWER9 с частотой 3,07 ГГц и шестью ускорителями NVIDIA Tesla GV100. Узлы соединены через двухканальную сеть Mellanox EDR InfiniBand, что обеспечивает пропускную способность в 200 Гбит/с для каждого сервера. Энергопотребление машины составляет чуть больше 10 МВт.

 Источник изображения: ORNL

Источник изображения: ORNL

FP64-быстродействие Summit достигает 148,6 Пфлопс (Linpack), а пиковая производительность составляет 200,79 Пфлопс. За шесть лет своей работы суперкомпьютер ни разу не выбывал из первой десятки TOP500: так, в нынешнем рейтинге он занимает девятую позицию.

 Источник изображения: ORNL

Источник изображения: ORNL

Отправить Summit на покой планировалось в начале 2024-го. Однако затем была запущена инициатива SummitPLUS, и срок службы вычислительного комплекса увеличился практически на год. Отмечается, что этот суперкомпьютер оказался необычайно продуктивным. Он обеспечил исследователям по всему миру более 200 млн часов работы вычислительных узлов.

В настоящее время ORNL эксплуатирует ряд других суперкомпьютеров, в число которых входит Frontier — самый мощный НРС-комплекс в мире. Его пиковое быстродействие достигает 1714,81 Пфлопс, или более 1,7 Эфлопс. При этом энергопотребление составляет 22 786 кВт: таким образом, система Frontier не только быстрее, но и значительно энергоэффективнее Summit. А весной этого года из-за растущего количества сбоев и протечек СЖО на аукционе был продан 5,34-ПФлопс суперкомпьютер Cheyenne.

Постоянный URL: http://servernews.ru/1110910
13.09.2024 [00:17], Владимир Мироненко

Производительность суперкомпьютера «Сергей Годунов» выросла вдвое — до 114,67 Тфлопс

Группа компаний РСК сообщила о завершении плановой модернизации суперкомпьютера «Сергей Годунов» в Институте математики имени С.Л. Соболева Сибирского отделения Российской академии наук (ИМ СО РАН), благодаря чему его суммарная пиковая FP64-производительность теперь составляет 114,67 Тфлопс: 75,87 Тфлопс на CPU и 38,8 Тфлопс на GPU.

 Источник изображений: РСК

Источник изображений: РСК

Работы по запуску машины были завершены РСК в ноябре 2023 года, а её официальное открытие состоялось в феврале этого года. На тот момент производительность суперкомпьютера составляла 54,4 Тфлопс. Директор ИМ СО РАН Андрей Евгеньевич Миронов отметил, что использование нового суперкомпьютера позволило существенно повысить эффективность научных исследований, и выразил уверенность, что он также будет способствовать развитию новых технологий.

Миронов сообщил, что после запуска суперкомпьютера появилась возможность решать мультидисциплинарные задачи, моделировать объёмные процессы и предсказывать поведение сложных математических систем. По его словам, на суперкомпьютере проводятся вычисления по критически важным проблемам и задачам, среди которых:

  • построение барических аксиальных алгебр и алгебры Грайса;
  • оптимизация параметров математических моделей турбулентных течений с сопряжённым теплообменом на основе технологий глубокого обучения и природоподобных алгоритмов;
  • волновая медицинская томография;
  • моделирование эпидемиологических, экологических, экономических и социальных процессов;
  • моделирование и построение сценариев развития системы биосфера-экономика-социум с учётом безуглеродного и устойчивого развития и изменения климата;
  • решение обратных задач геофизики прямым методом на основе подхода Гельфанда-Левитана-Крейна.
 Источник изображений: РСК

Источник изображений: РСК

Суперкомпьютер «Сергей Годунов» является основным инструментом для проведения исследований и прикладных разработок в Академгородке Новосибирска и создания технологической платформы под эгидой Научного совета Отделения математических наук РАН по математическому моделированию распространения эпидемий с учётом социальных, экономических и экологических процессов.

Он был назван в память об известном советском и российском математике с мировым именем Сергее Константиновиче Годунове. Отечественный суперкомпьютер создан на базе высокоплотной и энергоэффективной платформы «РСК Торнадо» с жидкостным охлаждением. Система включает вычислительные узлы с двумя Intel Xeon Ice Lake-SP, узел на базе четырёх ускорителей NVIDIA A100 и сервер визуализации с большим объёмом памяти: Intel Xeon Platinum 8368, 4 Тбайт RAM, пара NVIDIA RTX 5000 Ada с 32 Гбайт GDDR6.

Постоянный URL: http://servernews.ru/1110903
12.09.2024 [11:20], Сергей Карасёв

Начался монтаж модульного ЦОД для европейского экзафлопсного суперкомпьютера JUPITER

Юлихский исследовательский центр (Forschungszentrum Jülich) объявил о начале фактического создания модульного дата-центра для европейского экзафлопсного суперкомпьютера JUPITER (Joint Undertaking Pioneer for Innovative and Transformative Exascale Research). Европейское совместное предприятие по развитию высокопроизводительных вычислений (EuroHPC JU) заключило контракт на создание JUPITER с консорциумом, в который входят Eviden (подразделение Atos) и ParTec.

В рамках партнёрства за создание модульного ЦОД отвечает Eviden. После завершения строительства комплекс, как ожидается, объединит около 125 стоек BullSequana XH3000. Общая площадь ЦОД составит примерно 2300 м2. Он будет включать порядка 50 компактно расположенных контейнеров. Благодаря модульной конфигурации ускоряется монтаж систем, а также снижаются расходы на строительство объекта.

Суперкомпьютер JUPITER получит энергоэффективные высокопроизводительные европейские Arm-процессоры SiPearl Rhea. CPU-блок будет включать 1300 узлов и иметь производительность около 5 Пфлопс (FP64). Кроме того, в состав машины войдут порядка 6000 узлов с NVIDIA Quad GH200, а общее количество суперчипов GH200 Grace Hopper составит почти 24 тыс. Именно они и обеспечат FP64-производительность на уровне 1 Эфлопс. Узлы объединит интерконнект NVIDIA InfiniBand NDR (DragonFly+).

 Источник изображений: Юлихский исследовательский центр

Источник изображений: Юлихский исследовательский центр

Хранилище системы будет включать два раздела: быстрый ExaFLASH и ёмкий ExaSTORE. ExaFLASH будет базироваться на сорока All-Flash СХД IBM Elastic Storage System 3500 с эффективной ёмкостью 21 Пбайт («сырая» 29 Пбайт), скоростью записи 2 Тбайт/с и скоростью чтения 3 Тбайт/с. ExaSTORE будет иметь «сырую» ёмкость 300 Пбайт, а для резервного копирования и архивов будет использоваться ленточная библиотека ёмкостью 700 Пбайт.

«Первые контейнеры для нового европейского экзафлопсного суперкомпьютера доставлены компанией Eviden и установлены на площадке ЦОД. Мы рады, что этот масштабный проект, возглавляемый EuroHPC, всё больше обретает форму», — говорится в сообщении Юлихского исследовательского центра.

Ожидаемое быстродействие JUPITER на операциях обучения ИИ составит до 93 Эфлопс, а FP64-производительность превысит 1 Эфлопс. Стоимость системы оценивается в €273 млн, включая доставку, установку и обслуживание НРС-системы. Общий бюджет проекта составит около €500 млн, часть средств уйдёт на подготовку площадки, оплату электроэнергии и т.д.

Постоянный URL: http://servernews.ru/1110834
Система Orphus