Лента новостей

02.06.2021 [19:14], Игорь Осколков

Южная Корея намерена разработать собственные CPU и ИИ-чипы для суперкомпьютеров и серверов

Южная Корея намерена добиться большей независимости в сфере разработки и производства чипов для серверов и суперкомпьютеров, в первую очередь для нужд внутри страны. По сообщению Министерства науки и ИКТ Южной Кореи, пять гиперскейлеров подписали меморандум о взаимопонимании с пятью производителями микросхем.

Меморандум предполагает расширение использования отечественных технологий, в частности, ИИ-ускорителей в центрах обработки данных на территории страны. Производители и разработчики чипов — SK Group, Rebellions, FuriosaAI и Исследовательский институт электроники и телекоммуникаций — также согласились создать для этого новый технологический центр в Кванджу на юго-западе страны.

Отечественные чипы получат компании Naver Cloud, Douzone Bizon, Kakao Enterprise, NHN и KT. Все они являются крупными игроками на местном рынке и, каждая в своей области, довольно успешно конкурируют с зарубежными IT-гигантами. Это во многом напоминает ситуацию в Китае и Японии, которые также имеют сильных локальных игроков и вкладываются в разработку собственной микроэлектроники, чтобы быть менее зависимыми от США, как минимум, в области суперкомпьютинга.

Несколько недель назад правительство объявило о пакете поддержки в размере 510 трлн вон ($451 млрд) для увеличения производства микросхем в стране, что принесёт пользу не только Samsung и SK Hynix, но и небольшим компаниям. Также ранее сообщалось, что Южная Корея намерена к 2030 году построить суперкомпьютер экзафлопсного класса на базе преимущественно «домашних» компонентов.

Постоянный URL: https://servernews.ru/1041074
28.05.2021 [15:28], Сергей Карасёв

Marvell Bravera SC5 — первый в мире SSD-контроллер с поддержкой PCIe 5.0

Компания Marvell анонсировала контроллеры Bravera SC5, предназначенные для построения серверных SSD нового поколения с интерфейсом PCIe 5.0. Представлены изделия MV-SS1331 и MV-SS1333 с восемью и шестнадцатью каналами доступа к NAND-памяти (до 1600 МТ/с) соответственно. В семейство Bravera впоследствии войдут и другие продукты.

Здесь и ниже изображения Marvell

Заявленная скорость последовательного чтения информации может достигать 14 Гбайт/с, скорость последовательной записи — 9 Гбайт/с. Производительность случайного чтения достигает 2 млн IOPS, записи — 1 млн IOPS. Задержка составляет менее 6 мкс, а функция Elastic SLA Enforcer позволит более тонко управлять приоритетами и очередями, а также собирать телеметрию на аппаратном уровне.

В составе изделий задействованы наборы ядер ARM Cortex-R8, Cortex-M7 и Cortex-M3. Есть аппаратные движки для шифрования и обеспечения безопасности. Контроллер поддерживает ECC-память DDR4-3200 и LPDDR4x-4266, а также NAND-чипы SLC/MLC/TLC/QLC от крупнейших производителей: Kioxia, Micron, Samsung, SK hynix, Western Digital и YMTC. Партнёрами в рамках запуска названы AMD, Intel и Renesas.

Контроллер поддерживает спецификации NVMe 1.4b и предлагает четыре линии PCIe 5.0 (x4 или два порта x2). Компания постаралась сделать его как можно более универсальным и подходящим как для нужд гиперскейлеров, так и для корпоративных решений. Он поддерживает стандарты ZNS, >Open Channel SSD, Kioxia SEF.

Пробные поставки образцов контроллеров уже начались. Первыми заказчиками стали Facebook и Microsoft, развивающие стандарт OCP Cloud SSD, который несколько шире спецификаций NVMe. Именно на них ориентирована старшая, 16-канальная версия контроллера, которая благодаря своим габаритам (20 × 20 мм) позволяет создавать накопители в форм-факторе EDSFF E1.S. Правда, энергопотребление у неё выше, чем у 8-канальной — 9,8 Вт против 8,7 Вт.

Постоянный URL: https://servernews.ru/1040669
28.05.2021 [00:33], Владимир Мироненко

Perlmutter стал самым мощным ИИ-суперкомпьютером в мире: 6 тыс. NVIDIA A100 и 3,8 Эфлопс

В Национальном вычислительном центре энергетических исследований США (NERSC) Национальной лаборатории им. Лоуренса в Беркли состоялась торжественная церемония, посвящённая официальному запуску суперкомпьютера Perlmutter, также известного как NERSC-9, созданного HPE в партнёрстве с NVIDIA и AMD.

Это самый мощный в мире ИИ-суперкомпьютер, базирующийся на 6159 ускорителях NVIDIA A100 и примерно 1500 процессорах AMD EPYC Milan. Его пиковая производительность в вычислениях смешанной точности составляет 3,8 Эфлопс или почти 60 Пфлопс в FP64-вычислениях.

Perlmutter основан на платформе HPE Cray EX с прямым жидкостным охлаждением и интерконнектом Slingshot. В состав системы входят как GPU-узлы, так и узлы с процессорами. Для хранения данных используется файловая система Lustre объёмом 35 Пбайт скорость обмена данными более 5 Тбайт/с, которая развёрнута на All-Flash СХД HPE ClusterStor E1000 (тоже, к слову, на базе AMD EPYC).

 Perlmutter (Phase 1). Фото: NERSC

Perlmutter (Phase 1). Фото: NERSC

Установка Perlmutter разбита на два этапа. На сегодняшней презентации было объявлено о завершении первого (Phase 1) этапа, который начался в ноябре прошлого года. В его рамках было установлено 1,5 тыс. вычислительных узлов, каждый из которых имеет четыре ускорителя NVIDIA A100, один процессор AMD EPYC Milan и 256 Гбайт памяти. На втором этапе (Phase 2) в конце 2021 года будут добавлены 3 тыс. CPU-узлов c двумя AMD EPYC Milan и 512 Гбайт памяти., а также ещё ещё 20 узлов доступа и четыре узла с большим объёмом памяти.

 NERSC

NERSC

Также на первом этапе были развёрнуты служебные узлы, включая 20 узлов доступа пользователей, на которых можно подготавливать контейнеры с приложениями для последующего запуска на суперкомпьютере и использовать Kubernetes для оркестровки. Среда разработки будет включать NVDIA HPC SDK в дополнение к наборам компиляторов CCE (Cray Compiling Environment), GCC и LLVM для поддержки различных средств параллельного программирования, таких как MPI, OpenMP, CUDA и OpenACC для C, C ++ и Fortran.

 Фото: DESI

Фото: DESI

Сообщается, что для Perlmutter готовится более двух десятков заявок на вычисления в области астрофизики, прогнозирования изменений климата и в других сферах. Одной из задач для новой системы станет создание трёхмерной карты видимой Вселенной на основе данных от DESI (Dark Energy Spectroscopic Instrument). Ещё одно направление, для которого задействуют суперкомпьютер, посвящено материаловедению, изучению атомных взаимодействий, которые могут указать путь к созданию более эффективных батарей и биотоплива.

Постоянный URL: https://servernews.ru/1040628
22.05.2021 [00:39], Владимир Мироненко

Microsoft будет использовать дождевую воду для охлаждения ЦОД из-за протестов голландских фермеров

Строительство нового дата-центра Microsoft в Холландс-Крон (Hollands Kroon), общине в нидерландской провинции Северная Голландия, вызвало противодействие местных жителей, узнавших о том, что такие объекты могут вызвать нехватку питьевой воды. В связи с этим Организация сельского хозяйства и садоводства (LTO), представляющая интересы более 35 000 сельскохозяйственных предпринимателей, обжаловала выдачу разрешение Microsoft.

По данным газеты De Telegraaf, принадлежащие Microsoft и Google дата-центы на территории бизнес-парка Agriport A7 используют 525 м3 питьевой воды в час, что составляет 4,6 млн м3 в год, а для реализации планов по строительству пяти новых объектов потребуется ещё 10 млн м3 воды в год. Как сообщает De Telegraaf, внутренние документы муниципалитета предупреждают, что при экстремальных погодных условиях может возникнуть нехватка пресной воды.

Согласно ресурсу Hortidaily, в ответ на критику Microsoft сообщила телеканалу EenVandaag, что она будет охлаждать свои ЦОД дождевой водой, а излишки отдавать местным теплицам. Microsoft обратилась за помощью к компании ECW Energy, которая уже пятнадцать лет занимается вопросами использования дождевой воды. По словам Роберта Кильстра (Robert Kielstra) из ECW Energy, Microsoft требуется лишь около 30 % всего объёма воды, который она могла бы собрать на своих объектах в Agriport для охлаждения, а оставшуюся часть можно было бы поставлять в теплицы.

 Фото: Microsoft

Фото: Microsoft

Вода в Нидерландах очень дешёвая, и сбор и поставки дождевой воды обойдётся Microsoft гораздо дороже её потребления, но компания предпочла выбрать этот путь, чтобы избавиться от давления со стороны властей и жителей региона — в связи с жалобой фермеров Microsoft потенциально может столкнуться с судебным разбирательством. В настоящее время компания строит свой второй центр обработки данных в Холландс-Крон.

Когда речь заходит об экологичности дата-центров, то чаще всего говорят об их энергопотреблении и о переходе на «зелёные» источники энергии. Однако потребление чистой и отвод или очистка отработанной воды ЦОД — не менее острый вопрос. В США Microsoft профинансировала создание установки для очистки и повторного использования воды в её дата-центрах в Массачусетсе, а в Аризоне корпорация строит новый, дружественный к экологии облачный регион. Здесь, согласно планам, к 2030 году Microsoft будет отдавать большей чистой воды, чем потребляет сама.

Постоянный URL: https://servernews.ru/1040184
20.05.2021 [00:35], Владимир Агапов

Google начала перемещать нагрузки между ЦОД для более полного использования «зелёной» энергии

В соответствии с принятой Google стратегией по углеродно-нейтральному статусу своих дата-центров, компания планирует к 2030 году полностью перейти на возобновляемые источники электроэнергии. Сложность перехода заключается в том, что многие такие источники работают не постоянно и зависят от погодных условий и времени суток. Google решает эту проблему, перемещая «подвижные» задачи между ЦОД в разных регионах в зависимости от текущего уровня доступности в них «зелёной» энергии.

К «подвижным» Google относит такие задачи, которые не критичны к задержкам или к требованиям национальных законодательств о суверенитете данных. Это, в первую очередь, кодирование, анализ и обработка мультимедийных файлов, загружаемых в YouTube, Google Photos и Gоogle Drive. А вот нагрузки клиентов Google Cloud остаются в том ЦОД, в котором они были запущены.

 Фото: Google

Фото: Google

Перемещение данных между дата-центрами в режиме реального времени требует сложного ПО и большого запаса пропускной способности. Распределение нагрузки между регионами происходит с помощью интеллектуальной платформы Google, которая составляет прогнозы на день вперёд: насколько сильно тот или иной ЦОД будет нуждаться в электроэнергии из традиционных источников, каковы средняя почасовая «углеродоемкость» местной электросети и ее изменения в течение дня.

На основе этих данных система перераспределяет нагрузку на ЦОД, расположенных в регионах с временным избытком «зелёной» энергии. При этом такие перемещения остаются прозрачными и незаметными для конечных пользователей — они могут продолжать выполнять необходимые им задачи (смотреть потоковое видео, загружать фотографии, пользоваться картами и т.д.) в обычном режиме.

 Фото: Google

Фото: Google

Google заявила, что поделится своей методологией и результатами работы с отраслью в ближайших научных публикациях. «Мы надеемся, что наши результаты вдохновят другие организации на развертывание собственных версий платформы, учитывающей углеродные выбросы, и вместе мы сможем стимулировать переход к экологически чистой энергетике во всем мире», — заявили в компании.

В прошлом году компания Microsoft также объявила о планах по снижению выбросов углекислого газа к 2030 году и начала отслеживать влияние на климат своих поставщиков, а Amazon и Apple закупили значительное количество возобновляемой энергии для своих центров обработки данных. Сама же Google пытается освоить новые источники «зелёные» энергии — геотермальные.

Постоянный URL: https://servernews.ru/1039991
17.05.2021 [18:26], Сергей Карасёв

Иран запустил Simurgh, свой самый мощный суперкомпьютер

В Иране введён в эксплуатацию самый мощный в стране вычислительный комплекс: система получила название Simurgh — в честь фантастического существа в иранской мифологии, царя всех птиц. Суперкомпьютер разработан специалистами Технологического университета имени Амира Кабира (Amirkabir University of Technology). Смонтирована система в Иранском исследовательском центре высокопроизводительных вычислений (IHPCRC).

В настоящее время быстродействие комплекса составляет 0,56 Пфлопс. В дальнейшем мощность суперкомпьютера планируется довести до 1 Пфлопс — на доработку системы потребуется около двух месяцев. Конфигурация суперкомпьютера не раскрывается, а появление его в публичных рейтингах производительности вряд ли стоит ожидать.

 Суперкомпьютер Simurgh. Фото: Maryam Kamyab / MEHR

Суперкомпьютер Simurgh. Фото: Maryam Kamyab / MEHR

Новый суперкомпьютер, по словам представителей власти, по мощности приблизительно в 100 раз превосходит системы высокопроизводительных вычислений, до сих пор применявшиеся в Иране. Система будет использоваться для задач в области генетики, Big Data, ИИ, интернета вещей и так далее. Часть мощностей будет выделена для облачных систем.

 Суперкомпьютер Simurgh. Фото: Maryam Kamyab / MEHR

Суперкомпьютер Simurgh. Фото: Maryam Kamyab / MEHR

Интернет-источники отмечают, что Simurgh, по всей видимости, построен с использованием комплектующих, приобретённых на «чёрном» рынке, поскольку официально Иран не может закупать многие современные технологии из-за санкций — несколько лет назад ZTE получила крупный штраф из-за нелегальных поставок оборудования в страну. Тем не менее, Ирану периодически удаётся получить необходимые компоненты: в начале века был построен кластер из Pentium III/IV, а в 2007 году был построен суперкомпьютер на базе AMD Opteron.

Постоянный URL: https://servernews.ru/1039769
15.04.2021 [21:24], Игорь Осколков

DPU BlueField — третий столп будущего NVIDIA

Во время открытия GTC’21 наибольшее внимание привлёк, конечно, анонс собственного серверного Arm-процессора NVIDIA — Grace. Говорят, из-за этого даже акции Intel просели, хотя в последних решениях самой NVIDIA процессоры x86-64 были нужны уже лишь для поддержки «обвязки» вокруг непосредственно ускорителей. Да, теперь у NVIDIA есть три точки опоры, три столпа для будущего развития: GPU, DPU и CPU. Причём расположение их именно в таком порядке неслучайно.

У процессора Grace, который выйдет только в 2023 году, даже по современным меркам «голая» производительность не так уж высока — в SPECrate2017_int его рейтинг будет 300. Но это и неважно потому, что он, как и сейчас, нужен лишь для поддержки ускорителей (которые для краткости будем называть GPU, хотя они всё менее соответствуют этому определению), что возьмут на себя основную вычислительную нагрузку.

Гораздо интереснее то, что уже в 2024 году появятся BlueField-4, для которых заявленный уровень производительности в том же SPECrate2017_int составит 160. То есть DPU (Data Processing Unit, сопроцессор для данных) формально будет всего лишь в два раза медленнее CPU Grace, но при этом включать 64 млрд транзисторов. У нынешних ускорителей A100 их «всего» 54 млрд, и это один из самых крупных массово производимых чипов на сегодня.

Значительный объём транзисторного бюджета, очевидно, пойдёт не на собственной сетевую часть, а на Arm-ядра и различные ускорители. Анонсированные в прошлом году и ставшие доступными сейчас DPU BlueField-2 намного скромнее. Но именно с их помощью NVIDIA готовит экосистему для будущих комплексных решений, где DPU действительно станут «третьим сокетом», как когда-то провозгласил стартап Fubgible, успевший анонсировать до GTC’21 и собственную СХД, и более общее решение для дата-центров. Однако подход двух компаний отличается.

Напомним основные характеристики BlueField-2. Сетевая часть, представленная Mellanox ConnectX-6 Dx, предлагает до двух портов 100 Гбит/с, причём доступны варианты и с Ethernet, и с InfiniBand. Есть отдельные движки для ускорения криптографии, регулярных выражений, (де-)компрессии и т.д. Всё это дополняют 8 ядер Cortex-A78 (до 2,5 ГГц), от 8 до 32 Гбайт DDR4-3200 ECC, собственный PCIe-свитч и возможность подключения M.2/U.2-накопителя. Кроме того, будет вариант BlueField-2X c GPU на борту. Характеристики конкретных адаптеров на базе BlueField-2 отличаются, но, в целом, перед нами полноценный компьютер. А сама NVIDIA называет его DOCA (DataCenter on a Chip Architecture), дата-центром на чипе.

Для работы с ним предлагается обширный набор разработчика DOCA SDK, который включает драйверы, фреймворки, библиотеки, API, службы и собственно среду исполнения. Все вместе они покрывают практически все возможные типовые серверные нагрузки и задачи, а также сервисы, которые с помощью SDK относительно легко перевести в разряд программно определяемых, к чему, собственно говоря, все давно стремятся. NVIDIA обещает, что DOCA станет для DPU тем же, чем стала CUDA для GPU, сохранив совместимость с последующими версиями ПО и «железа».

На базе этого программно-аппаратного стека компания уже сейчас предлагает несколько решений. Первое — платформа NVIDIA AI Enterprise для простого, быстрого и удобного внедрения ИИ-решений. В качестве основы используется VMware vSphere, где развёртываются виртуальные машины и контейнеры, что упрощает работу с инфраструктурой, при этом производительность обещана практически такая же, как и в случае bare-metal.

DPU и в текущем виде поддерживают возможность разгрузки для некоторых задач, но VMware вместе с NVIDIA переносят часть типовых задач гипервизора с CPU непосредственно на DPU. Кроме того, VMware продолжает работу над переносом своих решений с x86-64 на Arm, что вполне укладывается в планы развития Arm-экосистемы со стороны NVIDIA. Одним из направлений является 5G, причём работа ведётся по нескольким направлениям. Во-первых, сама Arm разрабатывает периферийную платформу на базе Ampere Altra, дополненных GPU и DPU.

 NVIDIA Aerial A100

NVIDIA Aerial A100

Во-вторых, у NVIDIA конвергентное решение — ускоритель Aerial A100, который объединяет в одной карте собственно A100 и DPU. При этом он может использоваться как для ускорения работы собственно радиочасти, так и для обработки самого трафика и реализации различных пограничных сервисов. Там же, где не требуется высокая плотность (как в базовой станции), NVIDIA предлагает использовать более привычную EGX-платформу с раздельными GPU (от A100 и A40 до A30/A10) и DPU.

Одним из вариантов комплексного применения таких платформ является проект Morpheus. В его рамках предполагается установка DPU в каждый сервер в дата-центре. Мощностей DPU, в частности, вполне хватает для инспекции трафика, что позволяет отслеживать взаимодействие серверов, приложений, ВМ и контейнеров внутри ЦОД, а также, очевидно, применять различные политики в отношении трафика. DPU в данном случае выступают как сенсоры, данных от которых стекаются в EGX, и, вместе с тем локальными шлюзами безопасности.

Ручная настройка политик и отслеживание поведения всего парка ЦОД возможны, но не слишком эффективны. Поэтому NVIDIA предлагает как возможность обучения, так и готовые модели (с дообучением по желанию), которые исполняются на GPU внутри EGX и позволяют быстро выявить аномальное поведение, уведомить о нём и отсечь подозрительные приложения или узлы от остальной сети. В эпоху микросервисов, говорит компания, более чем актуально следить за состоянием инфраструктуры внутри ЦОД, а не только на его границе, как было раньше, когда всё внутри дата-центра по умолчанию считалось доверенной средой.

Кроме того, с помощью DPU и DOCA можно перевести инфраструктуру ЦОД на облачную модель и упростить оркестрацию. Но не только ЦОД — обновлённая суперкомпьютерная платформа DGX SuperPOD for Enterprise теперь тоже обзавелась DPU (с InfiniBand) и ПО Base Command, которые позволяют «нарезать» машину на изолированные инстансы с необходимой конфигурацией, упрощая таким образом совместное использование и мониторинг. А это, в свою очередь, повышает эффективность загрузки суперкомпьютера. Base Command выросла из внутренней системы управления Selene, собственным суперкомпьютером NVIDIA, на котором, например, компания обучает модели.

DPU доступны как отдельные устройства, так и в составе сертифицированных платформ NVIDIA и решений партнёров компании, причём спектр таковых велик. Таким образом компания пытается выстроить комплексный подход, предлагая программно-аппаратные решения вкупе с данными (моделями). Аналогичный по своей сути подход исповедует Intel, а AMD с поглощением Xilinx, надо полагать, тоже будет смотреть в эту сторону. И «угрозу» для них представляют не только GPU, но теперь и DPU. А вот новые CPU у NVIDIA, вероятно, на какое-то время останутся только в составе собственных продуктов, в независимости от того, разрешат ли компании поглотить Arm.

Постоянный URL: https://servernews.ru/1037460
15.04.2021 [15:39], Владимир Мироненко

Dell объявила о выделении VMware в отдельную компанию, но их сотрудничеству это не помешает

Dell Technologies объявила о планируемом отделении VMware. В результате сделки появятся две отдельные компании, которые продолжат совместно разрабатывать решения для клиентов в рамках заключённого коммерческого соглашения. Во владении Dell сейчас находится 80,6-% доля в VMware, при этом разница в рыночной оценке стоимости обеих компаний велика, и она не в пользу Dell.

Ожидается, что данная сделка будет завершена в четвёртом квартале 2021 года при соблюдении определённых условий, включая получение положительного судебного решения Налогового управления США с заключением о том, что сделка будет квалифицирована как не облагаемая федеральным подоходным налогом для акционеров Dell Technologies. Более простым вариантом была бы прямая продажа акций VMware, но в этом случае Dell будет вынуждена выплатить многомиллиардные отчисления государству.

После всестороннего анализа возможных стратегических вариантов стороны определили, что выделение VMware упростит структуру капитала и создаст дополнительную долгосрочную стоимость. При закрытии сделки VMware распределит специальные денежные дивиденды в размере $11,5–12 млрд среди всех акционеров VMware, включая саму Dell Technologies. Исходя из того, что в настоящее время Dell Technologies владеет 80,6 % акций VMware, она получит примерно $9,3–9,7 млрд. Компания намерена использовать полученные средства для выплаты долга, что обеспечит ей высокие инвестиционные рейтинги.

При закрытии сделки акционеры Dell Technologies получат примерно 0,44 акции VMware за каждую принадлежащую им акцию Dell Technologies, исходя из количества акций, находящихся в обращении сегодня. VMware перейдёт от многоклассовой к одноклассовой структуре акций, в то время как структура акций Dell Technologies останется прежней.

Сообщается, что Dell Technologies и VMware заключат коммерческое соглашение, которое сохранит уникальные и дифференцированные подходы компаний к совместной разработке критически важных решений и согласованию продаж и маркетинговой деятельности. VMware продолжит использовать финансовые сервисы Dell Financial Services для поддержки клиентов в проведении цифровой трансформации.

После завершения выделения Майкл Делл (Michael Dell) останется председателем и главным исполнительным директором Dell Technologies, а также председателем совета директоров VMware. Зейн Роу (Zane Rowe) останется временным генеральным директором VMware, а совет директоров VMware оставят без изменений.

Dell Technologies в будущем сосредоточится на:

  • Дальнейшем укреплении лидирующих позиций в области технологических инфраструктур и на клиентских рынках.
  • Выходу на новые области роста, такие как гибридное облако, периферия, 5G, телекоммуникации и управление данными.
  • Обеспечению современного клиентского опыта по модели работы из любого места, в том числе быстрому переходу к облачным моделям эксплуатации и потребления в рамках инициативы APEX.
Постоянный URL: https://servernews.ru/1037441
15.04.2021 [01:31], Владимир Мироненко

TSMC остановит выпуск Arm-процессоров Phytium — судьба китайского экзафлопсного суперкомпьютера Tianhe-3 под вопросом

Тайваньская компания Taiwan Semiconductor Manufacturing Company (TSMC) приостановила поставку чипов по новым заказам китайской компании Phytium, которая на прошлой неделе была добавлена властями США в «чёрный» список Министерства торговли. Внесение компаний в этот перечень означает запрет для американских компаний на работу с ними и предоставление продуктов или услуг без получения соответствующих лицензий.

Иностранные компании, такие как TSMC, теоретически могут продолжать работать с компаниями из «чёрного списка», но США могут оказывать на них давление через их американских поставщиков. Например, когда США занесли Huawei в «чёрный» список, TSMC была вынуждена отказаться от сотрудничества с ней, поскольку многие ключевые технологии, лежащие в основе её производственных процессов, были разработаны американскими фирмами.

Пока неясно, оказывалось ли сейчас подобное давление на TSMC, и были ли ею прекращены поставки остальным шести суперкомпьютерным китайским фирмам из «чёрного» списка. Как сообщает South China Morning Post, TSMC выполнит заказы, размещённые Phytium до внесения в «чёрный список», но больше поставлять ей чипы не будет.

 Прототип Tianhe-3. Фото: Xinhua

Прототип Tianhe-3. Фото: Xinhua

Предполагается, что Phytium стоит за развёртыванием систем высокопроизводительных вычислений для китайского военно-промышленного комплекса, использующего её разработки при создании гиперзвуковых ракет. Компания сотрудничает с Оборонным научно-техническим университетом Народно-освободительной армии Китая (NUDT), который ранее создал суперкомпьютеры Tianhe-1 и Tianhe-2, в своё время занимавшие первые строчки рейтинга TOP500.

Tianhe-3, один из трёх проектов китайских суперкомпьютеров экзафлопсного класса, должен был быть закончен в прошлом году, однако осенью было объявлено, что из-за пандемии коронавируса сроки сдвигаются. Летом 2020 года в распоряжении исследователей уже был прототип новой машины, имевший теоретическую производительность 3,146 Пфлопс. Он включал 512 плат с тремя процессорами Phytium MT2000+ и 128 плат с четырьмя Phytium FT2000+.

Точные параметры этих 7-нм Arm-чипов не приводятся, но в одной из свежих научных публикаций упоминается, что на каждый 64-ядерный FT2000+ в прототипе Tianhe-3 приходилось 64 Гбайт RAM. А каждый MT2000+ можно поделить на четыре NUMA-узла с 32 ядрами и 16 Гбайт RAM, то есть, судя по описанию, это 128-ядерный чип, о котором ранее ничего не было известно. Теперь же судьба этих CPU и суперкомпьютера Tianhe-3 и вовсе под вопросом.

Постоянный URL: https://servernews.ru/1037383
12.04.2021 [20:00], Сергей Карасёв

NVIDIA представила младшие серверные ускорители A10 и A30

Компания NVIDIA в рамках конференции GPU Technology Conference 2021 анонсировала ускорители A10 и A30, предназначенные для обработки приложений искусственного интеллекта и других задач корпоративного класса.

Модель NVIDIA A10 использует 72 ядра RT и может оперировать 24 Гбайт памяти GDDR6 с пропускной способностью до 600 Гбайт/с. Максимальное значение TDP составляет 150 Вт. Новинка выполнена в виде полноразмерной карты расширения с интерфейсом PCIe 4.0: в корпусе сервера устройство займёт один слот расширения. Производительность в вычислениях одинарной точности (FP32) заявлена на уровне 31,2 терафлопса. Новинку можно рассматривать как замену NVIDIA T4.

Модель NVIDIA A30, в свою очередь, получила исполнение в виде двухслотовой карты расширения с интерфейсом PCIe 4.0. Задействованы 24 Гбайт памяти HBM2 с пропускной способностью до 933 Гбайт/с. Показатель TDP равен 165 Вт. Обе новинки используют архитектуру Ampere с тензорными ядрами третьего поколения.

Решения подходят для применения в серверах массового сегмента, рабочих станциях, а также в составе платформы NVIDIA EGX и для периферийных вычислений.

Постоянный URL: https://servernews.ru/1037122

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;