Материалы по тегу: hardware

23.03.2023 [11:55], Сергей Карасёв

Разработчик иммерсионных СЖО LiquidStack привлёк Trane в качестве инвестора

Компания LiquidStack, специализирующаяся на разработке систем погружного жидкостного охлаждения, сообщила о получении инвестиций от Trane Technologies. Привлечённые средства, как отмечается, помогут в продвижении решений LiquidStack, что позволит значительно сократить углеродный след дата-центров, уменьшить потребление воды и снизить общее негативное воздействие на окружающую среду.

LiquidStack является одним из пионеров на рынке двухфазных иммерсионных СЖО. Компания заявляет, что её продукты дают возможность понизить энергопотребление на 40 % по сравнению с воздушным охлаждением, сократить капитальные затраты на 33 %, уменьшить совокупную стоимость владения на 32 % и обеспечить экономию свободных площадей в ЦОД до 69 %.

 Источник изображения: LiquidStack

Источник изображения: LiquidStack

О размере инвестиций со стороны Trane Technologies ничего не сообщается. Но отмечается, что деньги будут направлены прежде всего на расширение производства, включая открытие предприятия в США. В состав этого объекта войдут научно-исследовательские лаборатории, испытательная площадка и центр обучения специалистов по обслуживанию. Полученные деньги также будут направлены на разработку передовых диэлектрических жидкостей, маркетинг и расширение каналов сбыта.

Предполагается, что данные инициативы повысят спрос на решения LiquidStack среди гиперскейлеров, операторов облачных платформ, площадок колокации и создателей систем периферийных вычислений. При этом клиенты Trane и LiquidStack будут иметь доступ к более широкому спектру комплексных решений для организации эффективного охлаждения ЦОД.

Постоянный URL: http://servernews.ru/1083879
23.03.2023 [11:53], Сергей Карасёв

Giga Computing (Gigabyte) представила 1U-серверы начального уровня на базе AMD Ryzen 7000

Компания Giga Computing, серверное подразделение Gigabyte, анонсировала четыре стоечных сервера начального уровня — модели E133-C10, R133-C10, R133-C11 и R133-C13. Все они имеют форм-фактор 1U, а в основу положена аппаратная платформа AMD с возможностью установки процессоров Ryzen 7000 с показателем TDP до 105 Вт у первых двух моделей и до 170 Вт у двух других.

Версия E133-C10 уменьшенной глубины (520 мм) ориентирована на периферийные вычисления. Возможна установка двух SFF-накопителей с интерфейсом SATA-3 и одного модуля M.2 (PCIe 4.0 x4). Есть два сетевых порта 1GbE и выделенный порт управления.

 Источник изображений: Gigabyte

Источник изображений: Gigabyte

Сервер R133-C10 стандартной глубины (710 мм) допускает применение четырёх SATA-накопителей SFF/LFF и модуля M.2 (PCIe 4.0 x4). Набор сетевых интерфейсов аналогичен предыдущему устройству. Оба сервера комплектуются двумя блоками питания 80 PLUS Platinum мощностью 550 Вт.

Модели R133-C11 и R133-C13 стандартной глубины получили четыре отсека для SATA-накопителей SFF/LFF и коннектор M.2 (PCIe 4.0 x4). Первый из этих серверов оборудован четырьмя дополнительными посадочными местами для накопителей SFF SATA, двумя портами 10GbE и двумя портами 1GbE. Второй вариант снабжён только двумя разъёмами 1GbE. В обоих случаях применены два блока питания 80 PLUS Platinum на 800 Вт.

Все новинки располагают четырьмя слотами для модулей оперативной памяти DDR5-5200 (ECC/non-ECC) UDIMM и контроллером ASPEED AST2600. Есть по одному слоту расширения FHFL (PCIe 5.0 x16) и FHHL (PCIe 4.0 x4). Задействована система воздушного охлаждения. Диапазон рабочих температур — от +10 до +30 °C.

Постоянный URL: http://servernews.ru/1083874
22.03.2023 [22:02], Алексей Степин

AMD и NVIDIA победили: NEC останавливает разработку уникальных векторных процессоров SX-Aurora

Японская компания NEC была одной из немногих, отстаивавших собственный уникальный путь в сфере развития вычислительных технологий со своими векторными процессорами SX-Aurora. Хотя данное направление до недавних пор активно развивалось, компания, похоже, не выдержала давления со стороны NVIDIA и AMD и объявила о прекращении разработок новых решений в серии Aurora.

Работы над усовершенствованием векторной архитектуры NEC продолжались до конца прошлого года, когда компания объявила о подготовке новых вычислительных узлов SX-Aurora TSUBASA C401-8 на базе ускорителей с 16 блоками Vector Engine 3.0 и 96 Гбайт интегрированной памяти HBM2. И хотя в августе этого года в Научном центре Университета Тохоку будет запущен новый суперкомпьютер на их основе, новых разработок в этой сфере не будет.

Вычислительный модуль SX-Aurora TSUBASA C401-8. Источник изображений здесь и далее: NEC

Как отметил Сатоши Мацуока (Satoshi Matsuoka), глава крупнейшего в Японии суперкомпьютерного центра RIKEN, где был создан суперкомпьютер Fugaku, NEC неслучайно объявила об отказе от разработки нового поколения процессоров SX-Aurora. Хотя в целях компании значилось 10-кратное повышение энергоэффективности, теперь NEC считает, что эта цель может быть достигнута с использованием стандартных коммерческих ускорителей.

Главной причиной называется появление решений AMD и NVIDIA, на голову превосходящих все наработки NEC. В частности, упоминается AMD Instinct MI300. При этом отмечено, что это решение «похоронило» бы даже новое поколение SX-Aurora, когда речь заходит о ПСП. Целью NEC был показатель 2+ Тбайт/с, в то время как новинка AMD, располагая памятью HBM3 с 8192-бит шиной, может обеспечить 6,8 Тбайт/с.

 Планы NEC по развитию VE-архитектуры. Похоже, им уже не суждено сбыться

Планы NEC по развитию VE-архитектуры. Похоже, им уже не суждено сбыться

Также «естественным врагом» SX-Aurora является NVIDIA Grace Hopper с его мощной процессорной частью и развитой инфраструктурой NVLink, демонстрирующий к тому же выдающуюся энергоэффективность. Примечательно, что оба продукта от AMD и NVIDIA являются APU, то есть гибридными чипами, объединяющими ускорители и CPU собственной разработки, а также быструю память.

Финансовый кризис 2009 года ударил по разработкам NEC в области процессоростроения сильно, но ситуацию тогда спасла общая незрелость рынка GPGPU и технологии HBM. Сейчас на это надеяться нельзя, да и ситуация с точки зрения программной экосистемы в мире HPC говорит не в пользу NEC. По всей видимости, прямо на наших глазах ещё одна уникальная вычислительная архитектура становится достоянием истории.

При этом в Японии пока что сохраняется ещё одна уникальная отечественная архитектура — PEZY-SC. Arm-процессоры Fujitsu A64FX, ставшие основой Fugaku, тоже достаточно уникальны, однако их наследники в лице MONAKA переориентированы на более массовый сегмент. Таким образом, собственные массовые HPC-решения сейчас есть только у Китая, которому новейшие американские и британские ускорители достанутся в кастрированном виде.

Постоянный URL: http://servernews.ru/1083855
22.03.2023 [21:12], Владимир Мироненко

МТС инвестирует в 2023 году до 1 млрд руб. в стартапы из России и стран СНГ

МТС объявила о планах инвестировать в этом году в технологический бизнес до 1 млрд руб. Инвестиции предполагается направить на развитие стартапов в раундах A+/B из России и стран СНГ, которые представляют стратегическую ценность для экосистемы компании и усилят продукты и вертикали внутри МТС, включая ретейл, медиа, развлечения, облачные сервисы, кибербезопасность, туризм, IoT и умный дом.

При выборе проектов в первую очередь будут приниматься во внимание перспективы быстрого роста и синергия с бизнес-направлениями МТС. Предполагается направить на инвестиции весь объём фонда из расчёта от $0,5 до $5 млн на один проект.

«Несмотря на падение венчурного рынка России, которое в 2022 году составило от 55 до 80 % по разным оценкам, МТС не снижает темпы инвестиций и продолжает активную работу с технологическими компаниями. В этом году мы планируем проинвестировать 3–5 сделок общей суммой до 1 млрд руб. Рассматриваем зрелые проекты с рабочей бизнес-моделью и валидированным клиентским спросом», — заявил директор по инновациям и инвестициям МТС Дмитрий Курин.

 Источник изображения: МТС

Источник изображения: МТС

Корпоративный венчурный фонд МТС был создан в 2019 году на базе центра инноваций и инвестиций MTS StartUp Hub. За время существования им было поддержано 8 технологических компаний. Согласно пресс-релизу, портфельные компании фонда получают экспертную поддержку, доступ к API, облаку и каналам продаж, а также имеют возможность проведения рекламных кампаний на платформе «МТС Маркетолог» на льготных условиях.

Постоянный URL: http://servernews.ru/1083858
22.03.2023 [20:40], Сергей Карасёв

NVIDIA представила комплект Jetson Orin Nano для разработки «умных» дронов, роботов и камер

Компания NVIDIA анонсировала комплект для разработчиков Jetson Orin Nano Developer Kit. Решение предназначено для создания интеллектуальных роботов, дронов, систем видеонаблюдения и других устройств с ИИ-функциями. Утверждается, что по сравнению с оригинальной платформой Jetson Nano Developer Kit достигается 80-кратный прирост общего быстродействия и 50-кратное увеличение производительности в расчёте на 1 Вт затрачиваемой энергии.

Новинка имеет размеры 100 × 79 × 21 мм. В состав CPU входят шесть вычислительных ядер Arm Cortex-A78AE v8.2 с тактовой частотой до 1,5 ГГц. Имеется 1024-ядерный графический блок с архитектурой Ampere (32 тензорных ядра). Заявленное быстродействие на ИИ-операциях достигает 40 Топс.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В оснащение включены 8 Гбайт памяти LPDDR5, слот для карты microSD, разъёмы M.2 Key M (PCIe 3.0 x4), M.2 Key M (PCIe 3.0 x2) и M.2 Key E (PCIe x1, USB 2.0, UART, I2S, I2C). Есть 40-контактная колодка с поддержкой UART, SPI, I2S, I2C, GPIO. Кроме того, упомянуты два интерфейса камеры MIPI CSI-2.

Решение способно справляться с кодированием видео в формате 1080p30, а также с декодированием материалов 4K60 (H.265) или 11 потоков 1080p30 (H.265). Предусмотрены 1GbE-контроллер, четыре порта USB 3.2 Gen2, разъём USB Type-C, коннектор DisplayPort 1.2 (+MST). Энергопотребление варьируется от 7 до 15 Вт. Применена система активного охлаждения с радиатором и вентилятором. Стоит комплект Jetson Orin Nano Developer Kit около $500.

Постоянный URL: http://servernews.ru/1083815
22.03.2023 [20:32], Алексей Степин

Экспортный китайский вариант NVIDIA H100 получил модельный номер H800

В связи с санкционными ограничениями некоторые разновидности сложных микроэлектронных чипов запрещено экспортировать в Китайскую Народную Республику. Однако производители находят выход. В частности, компания NVIDIA анонсировала экспортный вариант ускорителя H100, не нарушающий никаких санкций. Модельный номер у такого варианта изменён на H800.

Введённые правительством США в 2022 году санкции сделали «невыездными» два наиболее продвинутых продукта NVIDIA: A100 и H100. Такие процессоры сегодня являются основой наиболее динамично развивающейся вычислительной отрасли — нейросетевой. Именно на кластерах из таких ускорителей «натаскивают» мощные нейросети вроде ChatGPT и подобных.

 Ускоритель Hopper H100 в SXM-исполнении. Источник изображений здесь и далее: NVIDIA

Ускоритель Hopper H100 в SXM-исполнении. Источник изображений здесь и далее: NVIDIA

Ещё осенью прошлого года NVIDIA анонсировала A800 — экспортный вариант A100, не попадающий под ограничения за счёт некоторого снижения пропускной способности NVLink, с 600 до 400 Гбайт/с. Сейчас пришло время архитектуры Hopper, которая запущена в массовое производство. По аналогии с флагманом Ampere модернизированный чип получил модельный номер H800. Ограничения в нём реализованы схожим образом: как известно, NVLink в H100 имеет производительность 900 Гбайт/с в базовом SXM-варианте.

 H100 также существует в PCIe-варианте

H100 также существует в PCIe-варианте

Версия H800 использует примерно половину этого потенциала, что, впрочем, не делает её в Китае менее популярной: новинка уже используется китайскими облачными гигантами, такими, как Alibaba, Baidu и Tencent. Есть ли у H800 другие отличия от H100, не говорится — NVIDIA пока отказывается предоставлять такую информацию. Достоверно известно лишь то, что они полностью соответствуют всем санкционным ограничениям. Интересно, появится ли в будущем вариант H800 NVL на базе NVIDIA H100 NVL.

Постоянный URL: http://servernews.ru/1083837
22.03.2023 [13:53], Сергей Карасёв

Supermicro представила ИИ-серверы на базе NVIDIA H100 и L4

Компания Supermicro анонсировала полный спектр серверов, оборудованных ускорителями NVIDIA H100 и L4. Системы предназначены для задач HPC, генеративного ИИ, глубокого обучения и других ресурсоёмких приложений, таких как умные чат-боты и визуальный поиск.

Отмечается, что в ассортименте Supermicro присутствуют серверы в форм-факторах 8U, 6U, 5U, 4U, 2U и 1U, а также рабочие станции и системы SuperBlade, которые поддерживают весь модельный ряд новых ускорителей NVIDIA. Для ряда моделей доступно жидкостное охлаждение.

 Источник изображений: Supermicro

Источник изображений: Supermicro

В частности, Supermicro представила мощную систему SuperServer SYS-821GE-TNHR формата 8U. Допускается установка двух процессоров Intel Xeon Sapphire Rapids с показателем TDP до 350 Вт и 32 модулей оперативной памяти DDR5-4800 суммарным объёмом до 8 Тбайт. Сервер может быть оборудован восемью ускорителями NVIDIA H100 SXM5.

Во фронтальной части предусмотрены отсеки для 16 NVMe-накопителей SFF и для восьми изделий SFF SATA. Кроме того, есть два внутренних коннектора M.2 NVMe. Сервер располагает четырьмя блоками питания мощностью 3000 Вт каждый. Может быть развёрнуто воздушное или жидкостное охлаждение. В качестве опции предлагается установка двух сетевых контроллеров 10GbE (Intel X710-AT2).

Supermicro также выпустила шасии в серии X13 SuperBlade. В версии 8U оно вмещает 20 ускорителей NVIDIA H100 PCIe или 40 ускорителей NVIDIA L40. В варианте 6U можно использовать до 10 ускорителей NVIDIA H100 PCIe или до 20 ускорителей NVIDIA L4. Кроме того, Supermicro выпустила систему ИИ-разработки с жидкостным охлаждением (в виде башни или стойки), содержащую два CPU и четыре NVIDIA A100: это решение подходит для офисных и домашних сред.

Постоянный URL: http://servernews.ru/1083793
22.03.2023 [12:32], Сергей Карасёв

В облаке Vultr появились ускорители NVIDIA H100

Частная компания Vultr, предоставляющая услуги облачных вычислений, сообщила о том, что клиентам теперь доступны ускорители NVIDIA H100 для обработки ресурсоёмких приложений, связанных с генеративным ИИ, глубоким обучением, рендерингом видео, HPC-задачами и т. п.

Воспользоваться мощностями платформы NVIDIA HGX H100 заказчики смогут в рамках сервиса IaaS. Данная облачная платформа Vultr также включает другие ускорители NVIDIA, в том числе A100, A40 и A16. Таким образом, как отмечается, корпоративные пользователи могут выбрать наиболее подходящий для себя вариант в зависимости от потребностей.

Кроме того, Vultr объявила о трёхстороннем стратегическом альянсе с платформами обработки данных и машинного обучения Anaconda Inc. и Domino Data Lab. Эта инициатива призвана помочь специалистам по анализу данных и инженерам в области машинного обучения в упрощении и ускорении реализации проектов. Говорится, что в течение всего 60 секунд клиенты смогут развернуть полноценную и безопасную среду Anaconda на платформе Domino MLOps, работающую на инфраструктуре Vultr. Это позволит заказчикам сосредоточиться на инновациях, а не на решении рабочих вопросов.

 Источник изображения: Vultr

Источник изображения: Vultr

Ускорители NVIDIA также могут быть интегрированы с широким спектром виртуализированных облачных ресурсов Vultr, серверами bare metal, управляемыми базами данных, блочными и объектными хранилищами и пр. Этот комплексный набор продуктов и услуг способен удовлетворить потребности предприятий любого размера с критически важными проектами в области ИИ и машинного обучения.

Постоянный URL: http://servernews.ru/1083806
22.03.2023 [00:09], Алексей Степин

NVIDIA показала сдвоенный серверный суперпроцессор Grace Superchip

Проект NVIDIA Grace весьма амбициозен: компания всерьёз намерена ворваться с его помощью на рынок высокопроизводительных серверных процессоров, где всё ещё доминируют решения Intel и AMD. Об этом чипе было объявлено ещё на конференции GTC 2022, а на GTC 2023 глава компании, наконец, показал его вживую.

В рамках продолжающегося роста плотности упаковки вычислительных мощностей в современных ЦОД на первый план выдвинулась не голая производительность, а соотношение производительности к уровню энергопотребления и тепловыделения. По сочетанию этих параметров x86 далеко не оптимальна, и тут у NVIDIA есть все шансы. С анонсом Grace Superchip NVIDIA провозглашает (впрочем, уже не в первый раз) смерть «закона Мура» — пришло время оптимизации и отказа от устаревших, по мнению компании, вычислительных архитектур.

 Источник изображений здесь и далее: NVIDIA

Источник изображений здесь и далее: NVIDIA

Процессор NVIDIA Grace воплощает в себе все современные тенденции, начиная с отказа от монолитного кристалла. Сборка Grace Superchip состоит из двух кристаллов, каждый из которых включает в себя 72 ядра Arm Neoverse V2 (Arm v9), поддерживающих векторные расширения SVE2 и оптимизированные для ИИ форматы BF16/INT8. Кристаллы соединены между собой шиной NVLink-C2C, обеспечивающей пропускную способность 900 Гбайт/с.

В сборку интегрированы чипы памяти LPDDR5x общим объёмом до 960 Гбайт, причём каждый кристалл имеет свою шину доступа к памяти с производительностью 500 Гбайт/с. При этом с точки зрения ПО Grace Superchip представляется единым 144-ядерным процессором с ПСП на уровне 1 Тбайт/с.

Для достижения схожих параметров в мире x86 требуется двухпроцессорная платформа AMD Genoa, куда более сложная технически и гораздо менее энергоэффективная, но при этом обладающая всеми недостатками NUMA-систем. Достаточно сравнить энергопотребление: 900 Вт против 500 у нового решения NVIDIA.

NVIDIA есть чем гордиться: при сопоставимом уровне энергопотребления Grace Superchip превосходит своих конкурентов из мира x86 в 2,3 раза при запуске микросервисов, вдвое опережает их в приложениях с интенсивным обменом данными с памятью и почти вдвое — в задачах симуляции вычислительной гидродинамики. В ряде других научно-технических задач преимущество может быть и более чем двукратным.

Это достигнуто в том числе благодаря изначальной оптимизации дизайна процессора с упором на максимальную производительность передачи данных. Внутренне Grace организован по принципу меш-сети с распределённой системой кеширования на базе специальных узлов коммутации CSN (Cache Switch Nodes). Называется эта сеть Scalable Coherency Fabric, она имеет пропускную способность 3,2 Тбайт/с, а объём кеша L3 составляет 117 Мбайт на кристалл и 234 Мбайт совокупно.

Сервер на базе NVIDIA Grace не только может потреблять меньше энергии, но и будет существенно проще конструктивно, поскольку модуль Grace Superchip содержит не только процессорные ядра и память, но также и регуляторы напряжения. От платформы на базе нового процессора требуется только PCIe 5.0 — у нового чипа есть два набора по 64 линии. Причём линии с поддержкой CXL 2.0, так что проблем с расширением доступного объёма памяти новинка испытывать не будет.

Даже компактные серверы высотой 1U смогут вместить две сборки Grace Superchip, что даст 288 ядер и почти 2 Тбайт оперативной памяти — труднодостижимый в таких габаритах показтель для более традиционных конструктивов процессоров и системных плат. Сравнительно невысокий теплопакет позволит таким решениям обходиться традиционным воздушным охлаждением.

При этом есть и вариант Grace Hopper, сочетающий в одном модуле кристалл Grace и новейший GPU H100, причём параметрами PCI Express последний ограничен не будет благодаря NVLink-C2C. NVIDIA уже начала первичные поставки Grace, а начало полномасштабного производства ожидается во второй половине года. Новыми процессорами заинтересовались крупные производители оборудования, включая ASUS, Atos, GIGABYTE, HPE, QCT, Supermicro, Wistron и ZT Systems.

Лос-Аламосская национальная лаборатория объявила, что использует NVIDIA Grace в новом суперкомпьютере Venado, который поможет учёным в исследованиях новых материалов и возобновляемых источников энергии. Ряд крупных европейских и азиатских ЦОД также рассматривает перспективы применения новых процессоров NVIDIA. В частности, одной из систем на базе Grace станет кластер Alps в Швейцарском национальном компьютерном центре.

Постоянный URL: http://servernews.ru/1083780
21.03.2023 [22:01], Сергей Карасёв

NVIDIA и Mitsui анонсировали Tokyo-1, первый в мире ИИ-суперкомпьютер для фармацевтической отрасли

Компании Mitsui и NVIDIA в ходе весенний конференции GTC 2023 анонсировали проект Tokyo-1. Это, как утверждается, первый в мире суперкомпьютер с генеративным ИИ, спроектированный специально для фармацевтической отрасли. Мощности новой системы будут предоставляться японским заказчикам, включая фармацевтические организации и стартапы. HPC-комплекс поможет ускорить разработку передовых лекарственных препаратов благодаря использованию ИИ. Клиенты также смогут запускать на базе Tokyo-1 большие ИИ-модели с помощью ПО и сервисов NVIDIA BioNeMo.

На начальном этапе суперкомпьютер объединит 16 узлов NVIDIA DGX H100, каждый из которых получит восемь ускорителей NVIDIA H100. За работу системы будет отвечать фирма Xeureka, дочерняя структура Mitsui, специализирующаяся на разработке лекарств с помощью ИИ. С течением времени в состав комплекса будут включены дополнительные вычислительные узлы, что позволит поднять его производительность. Ввод суперкомпьютера в эксплуатацию намечен на конец 2023 года.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Модели ИИ, работающие на базе Tokyo-1, помогут в создании новых молекулярных структур для лекарственных препаратов. Инициатива также будет включать семинары и обучающие курсы по применению ускоренных вычислений в фармацевтической области. Клиенты смогут получить доступ к выделенному серверу на платформе Tokyo-1, а также воспользоваться технической поддержкой со стороны Xeureka и NVIDIA. Заказчики смогут приобрести программные решения Xeureka для молекулярной динамики, квантовой химии и иных расчётов.

Отмечается, что, используя NVIDIA BioNeMo, исследователи смогут масштабировать ИИ-модели до миллионов и миллиардов параметров в различных приложениях, включая предсказание структуры белка. Крупные японские фармацевтические компании, включая Astellas Pharma, Daiichi-Sankyo и Ono Pharmaceutical, уже заявили о намерении использовать Tokyo-1 при реализации своих проектов.

Постоянный URL: http://servernews.ru/1083713
Система Orphus