Материалы по тегу: hardware

30.12.2024 [12:56], Сергей Карасёв

Firefly представила серверы CSB1-N10 для создания ИИ-кластеров из одноплатных компьютеров

Компания Firefly Technology, по сообщению ресурса CNX-Software, выпустила серверы серии CSB1-N10 для построения ИИ-кластеров. Устройства, выполненные в форм-факторе 1U, подходят для дата-центров, периферийных развёртываний и локальных площадок.

В семейство вошли пять моделей: CSB1-N10S1688, CSB1-N10R3588, CSB1-N10R3576, CSB1-N10NOrinNano и CSB1-N10NOrinNX. Узлы систем оснащены соответственно процессором Sophgo Sophon BM1688 (8 ядер, до 1,6 ГГц), Rockchip RK3588 (8 ядер, до 2,4 ГГц), Rockchip RK3576 (8 ядер, до 2,2 ГГц), NVIDIA Jetson Orin Nano (6 ядер, до 1,5 ГГц) и Jetson Orin NX (8 ядер, до 2,0 ГГц).

Первые три из перечисленных узлов комплектуются оперативной памятью LPDDR4 объёмом 8, 16 и 8 Гбайт соответственно, а также флеш-модулем eMMC вместимостью 32, 256 и 64 Гбайт. Варианты Orin оборудованы 8 и 16 Гбайт памяти LPDDR5 и накопителем NVMe SSD на 256 Гбайт.

Все серверы содержат десять вычислительных узлов и дополнительный управляющий узел на чипе RK3588. Присутствует слот для SSD с интерфейсом SATA-3. В оснащение входят по два сетевых порта 10GbE (SFP+) и 1GbE (RJ45), выделенный сетевой порт управления 1GbE, аналоговый разъём D-Sub (1080p60), два порта USB 3.0, а также последовательный порт. Применяется воздушное охлаждение. За питание отвечает блок мощностью 550 Вт. Диапазон рабочих температур — от 0 до +45 °C.

 Источник изображения: Firefly

Источник изображения: Firefly

Кластер на базе CSB1-N10S1688 обеспечивает ИИ-производительность до 160 TOPS на операциях INT8. В случае CSB1-N10R3588 и CSB1-N10R3576 это показатель составляет 60 TOPS. Эти три системы поддерживают работу с большими языковыми моделями (LLM), а также фреймворками TensorFlow, PyTorch, PaddlePaddle, ONNX, Caffe. В случае CSB1-N10NOrinNano и CSB1-N10NOrinNX быстродействие достигает 400 и 1000 TOPS. Говорится о поддержке LLaMa3 и Phi-3 Mini, фреймворков TensorFlow, PyTorch, Matlab и др. Цена варьируется от $2059 до $14 709.

Постоянный URL: http://servernews.ru/1116104
29.12.2024 [17:40], Владимир Мироненко

Конструктор вместо монолита: NVIDIA дала больше свободы в кастомизации GB300 NVL72

Для новых суперускорителей (G)B300 компания NVIDIA существенно поменяла цепочку поставок, сделав её более дружелюбной к гиперскейлерам, то есть основным заказчиком новинок, передаёт SemiAnalysis. В случае GB200 компания поставляла готовые, полностью интегрированные платы Bianca, включающие ускорители Blackwell, CPU Grace, 512 Гбайт напаянной LPDDR5X, VRM и т.д. GB300 будут поставляться в виде модулей: SXM Puck B300, CPU Grace в корпусе BGA, HMC от Axiado (вместо Aspeed). А в качестве системной RAM будут применяться модули LPCAMM, преимущественно от Micron.

Переход на SXM Puck даст возможность создавать новые системы большему количеству OEM- и ODM-поставщиков, а также самим гиперскейлерам. Если раньше только Wistron и Foxconn могли производить платы Bianca, то теперь к процессу сборки ускорителей могут подключиться другие. Wistron больше всех потеряет от этого решения, поскольку потеряет долю рынка производителей Bianca. Для Foxconn же, которая благодаря NVIDIA вот-вот станет крупнейшим в мире поставщиком серверов, потеря компенсируется эксклюзивным производством SXM Puck.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Еще одно важное изменение касается VRM. Хотя на SXM Puck есть некоторые компоненты VRM, большая часть остальных комплектующих будет закупаться гиперскейлерами и вендорами напрямую у поставщиков VRM. Стоечные NVSwitch-коммутаторы и медный backplane по-прежнему будут поставляться самой NVIDIA. Для GB300 компания предлагает 800G-платформу InfiniBand/Ethernet Quantum-X800/Spectrum-X800 с адаптерами ConnectX-8, которые не попали GB200 из-за нестыковок в сроках запуска продуктов. Кроме того, у ConnectX-8 сразу 48 линий PCIe 6.0, что позволяет создавать уникальные архитектуры, такие как MGX B300A с воздушным охлаждением.

Сообщается, что все ключевые гиперскейлеры уже приняли решение перейти на GB300. Частично это связано с более высокой производительностью и экономичностью GB300, но также вызвано и тем, что теперь они сами могут кастомизировать платформу, систему охлаждения и т.д. Например, Amazon сможет, наконец, использовать собственную материнскую плату с водяным охлаждением и вернуться к архитектуре NVL72, улучшив TCO. Ранее компания единственная из крупных игроков выбрала менее эффективный вариант NVL36 из-за использования собственных 200G-адаптеров и PCIe-коммутаторов с воздушным охлаждением.

Впрочем, есть и недостаток — гиперскейлерам придётся потратить больше времени и ресурсов на проектирование и тестирование продукта. Это, пожалуй, самая сложная платформа, которую когда-либо приходилось проектировать гиперскейлерам (за исключением платформ Google TPU), отметил ресурс SemiAnalysis.

Постоянный URL: http://servernews.ru/1116051
29.12.2024 [15:58], Владимир Мироненко

С 1 января вступает в силу новый стандарт для производства ПК и серверов, который заменит документ 40-летней давности

С 1 января 2025 года в России будет действовать новый стандарт для производства ПК и серверов. ГОСТ Р 71784-2024 «Средства вычислительной техники. Общие технические требования, приемка, методы испытаний, маркировка, упаковка, транспортирование и хранение», разработанный в качестве замены межгосударственного стандарта ГОСТ 21552-84, введённого в действие 1 января 1986 года.

Новый стандарт был разработан ООО «КНС групп» (YADRO), внесён Техническим комитетом по стандартизации ТК 166 «Вычислительная техника», утверждён и введён в действие приказом Федерального агентства по техническому регулированию и метрологии (Росстандарт) 1659-ст от 12 ноября 2024 года. Им устанавливаются основные параметры, общие технические требования, требования к упаковке, хранению и транспортировке серверов, ПК и другой вычислительной техники.

«ГОСТ задает чёткие и прозрачные критерии разработки, производства и испытаний средств вычислительной техники, что должно позитивно повлиять на контроль качества и уменьшить вероятность брака. Уже сейчас производителям необходимо ознакомиться с требованиями нового ГОСТа; актуализировать техническую документацию и проверить производственные процессы на соответствие новым требованиям», — сообщается на сайте Росстандарта.

 Источник изображения: YADRO

Источник изображения: YADRO

ГОСТ Р 71784-2024 содержит:

  • нормативные ссылки;
  • термины и определения;
  • общие технические требования;
  • правила приёмки;
  • методы испытаний;
  • требования к маркировке, упаковке, транспортированию и хранению;
  • приложение с общими требованиями к программе обеспечения надёжности (приложение А);
  • перечень технических параметров, подлежащих сертификационным испытаниям изделия (приложение Б).

Стандарт также включает рекомендации по разработке программ обеспечения надёжности для производителей, что направлено на повышение долговечности и отказоустойчивости продукции. Для экспортной продукции, помимо стандарта, дополнительно необходимо соблюдать условия контракта и рабочие чертежи.

Перед выходом на рынок техника подлежит обязательной оценке соответствия требованиям электрических технических регламентов. В отдельных случаях требуется оформление декларации или сертификатов средств связи и транспортной безопасности.

Постоянный URL: http://servernews.ru/1116088
29.12.2024 [15:25], Руслан Авдеев

AWS планирует сократить расходы на оборудование ZT Systems, покупаемой AMD

Amazon Web Services (AWS) планирует сократить расходы на закупки оборудования для дата-центров у одного из ключевых поставщиков — всё больше аппаратного обеспечения гиперскейлер разрабатывает самостоятельно. Речь идёт о компании ZT Systems, которая в скором времени станет частью AMD, сообщает Business Insider.

В прошлом году AWS потратила почти $2 млрд на дела с ZT Systems, разрабатывающей и выпускающей серверы и сетевые решения — об этом свидетельствует один из внутренних документов Amazon 2023 года, попавших в распоряжение журналистов. Согласно материалам AWS, компания намерена перейти на самостоятельную разработку некоторых «серверных и сетевых стоек». Эти изменения «потенциально повлияют» на сотрудничество с ZT Systems.

 Источник изображений: AWS

Источник изображений: AWS

Информацию подтвердили источники в AWS, также сообщившие, что компания снижает расходы на оборудование данного производителя. Правда, один из них уточнил, что сокращения будут происходить поэтапно, поскольку решения ZT Systems тесно интегрированы с серверами AWS. Официально в AWS утверждают, что компании продолжат сотрудничество. Правда, представитель гиперскейлера подчеркнул, что компания непреклонна в желании сократить расходы. И подход к покупкам инфраструктурных решений в этом отношении ничем не отличается.

AWS считается крупнейшим облачным провайдером в мире. Несмотря на сокращение закупок у отдельных поставщиков, траты компании на оборудование вряд ли уменьшатся. Капитальные затраты Amazon должны составить в 2024 году $75 млрд. В основном средства будут направлены на развитие дата-центров. В последние годы AWS использует всё больше оборудования собственной разработки для снижения издержек, повышения эффективности и снижения зависимости от внешних поставщиков. Прочие облачные гиганты, включая Google, также разрабатывают собственные чипы и сетевое оборудование.

 Источник изображения: AWS

Источник изображения: AWS

Летом AMD согласилась приобрести ZT Systems за $4,9 млрд. Это, как ожидается, усилит её позиции в качестве поставщика решений для дата-центров. Несмотря на сокращение сотрудничества, AWS всё ещё может направлять ZT собственные разработки, чтобы та выпускала их на своих мощностях. Правда, ранее AMD сообщала, что планирует продать производственный бизнес ZT Systems после того, как сделка будет закрыта.

В последние месяцы некоторые сотрудники AWS выражали обеспокоенность сотрудничеством с ZT Systems, поскольку AWS и AMD выпускают некоторые похожие продукты. Впрочем, AWS тесно сотрудничает с AMD и даже предлагает в облаках доступ к процессорам компании, но новейших ИИ-чипов последней в облачной линейке предложений Amazon пока нет. Отчасти, по данным источников, это объясняется низким спросом.

Постоянный URL: http://servernews.ru/1116072
28.12.2024 [12:42], Сергей Карасёв

Итальянская нефтегазовая компания Eni запустила суперкомпьютер HPC6 с производительностью 478 Пфлопс

Итальянский нефтегазовый гигант Eni запустил вычислительный комплекс HPC6. На сегодняшний день это самый мощный суперкомпьютер в Европе и один из самых производительных в мире: в свежем рейтинге TOP500 он занимает пятую позицию.

О подготовке HPC6 сообщалось в начале 2024 года. В основу системы положены процессоры AMD EPYC Milan и ускорители AMD Instinct MI250X. Комплекс выполнен на платформе HPE Cray EX4000 с хранилищем HPE Cray ClusterStor E1000 и интерконнектом HPE Slingshot 11.

В общей сложности в состав HPC6 входят 3472 узла, каждый из которых несёт на борту 64-ядерный CPU и четыре ускорителя. Таким образом, суммарное количество ускорителей Instinct MI250X составляет 13 888. Суперкомпьютер обладает FP64-быстродействием 477,9 Пфлопс в тесте Linpack (HPL), тогда как пиковый теоретический показатель достигает 606,97 Пфлопс. Максимальная потребляемая мощность системы составляет 10,17 МВА.

Комплекс HPC6 смонтирован на площадке Eni Green Data Center в Феррера-Эрбоньоне: это, как утверждается, один из самых энергоэффективных и экологически чистых дата-центров в Европе. Новый суперкомпьютер оснащён системой прямого жидкостного охлаждения, которая способна рассеивать 96 % вырабатываемого тепла. ЦОД, где располагается HPC6, оборудован массивом солнечных батарей мощностью 1 МВт.

 Источник изображения: Eni

Источник изображения: Eni

Как отмечает ресурс Siliconangle, на создание суперкомпьютера потрачено более €100 млн. Применять комплекс планируется, в частности, для оптимизации работы промышленных предприятий, повышения точности геологических и гидродинамических исследований, разработки источников питания нового поколения, оптимизации цепочки поставок биотоплива, создания инновационных материалов и моделирования поведения плазмы при термоядерном синтезе с магнитным удержанием.

Постоянный URL: http://servernews.ru/1116056
28.12.2024 [12:16], Сергей Карасёв

Xiaomi создаст ИИ-кластер с 10 тыс. GPU

Китайская компания Xiaomi, по сообщению Jiemian News, намерена создать собственный вычислительный кластер для решения ресурсоёмких задач в области ИИ. Предполагается, что в основу системы лягут около 10 тыс. ускорителей на базе GPU.

Отмечается, что Xiaomi активно развивает направление ИИ. Соответствующее подразделение было сформировано ещё в 2016 году, и с тех пор его штат увеличился примерно в шесть раз — до более чем 3000 сотрудников (включая специалистов, задействованных в смежных областях).

С начала 2024 года Xiaomi использует для проектов ИИ вычислительную платформу, насчитывающую около 6500 ускорителей на основе GPU. В дальнейшем количество GPU планируется наращивать. Инициативы Xiaomi в области ИИ курирует генеральный директор компании Лэй Цзюнь (Lei Jun).

 Источник изображения: Xiaomi

Источник изображения: Xiaomi

Проекты Xiaomi в сфере ИИ охватывают самые разные направления, включая компьютерное зрение, обработку естественного языка, графы знаний, машинное обучение, большие языковые модели (LLM) и мультимодальные технологии. Эти технологии по мере развития интегрируются в смартфоны, автомобильные бортовые системы, робототехнику, а также в интеллектуальные устройства Интернета вещей (AIoT).

Ранее Цзюнь сообщил, что Xiaomi успешно адаптировала LLM для локального использования на мобильных устройствах: утверждается, что модель с 1,3 млрд параметров достигла сопоставимой с облаком производительности в некоторых сценариях. Кроме того, компания создала более мощную LLM с 6 млрд параметров. Говорится также, что Xiaomi сотрудничает с другими участниками рынка в рамках развития проектов ИИ: в число партнёров входят Qualcomm и MediaTek.

Постоянный URL: http://servernews.ru/1116059
28.12.2024 [11:35], Сергей Карасёв

Обнародован рейтинг Тор-100 суперкомпьютеров Китая: систем экзафлопсного класса в нём нет

Общество компьютерных наук Китая обнародовало свежий рейтинг 100 самых производительных суперкомпьютеров страны. Как отмечает ресурс Tom's Hardware, власти КНР, похоже, скрывают свой истинный вычислительный потенциал. Дело в том, что в опубликованном списке Тор-100 не только нет систем экзафлопсного класса, но и не представлено ни одной новой машины за год.

В тройку лидеров в 2024 году вошли те же самые гетерогенные системы (CPU + GPU), которые возглавляли рейтинг в 2023-м. На первом месте располагается комплекс, обладающий FP64-быстродействием 487,94 Пфлопс в тесте Linpack (HPL) и пиковой производительностью на уровне 620 Пфлопс. Эта система, введённая в эксплуатацию в 2023 году, насчитывает в общей сложности 15 974 400 ядер CPU.

 Источник изображения: Xinhua

Источник изображения: Xinhua

На второй позиции списка находится машина, запущенная в 2022 году: она использует 460 000 ядер CPU. Заявленное быстродействие составляет 208,26 Пфлопс, пиковое значение — 390 Пфлопс. Замыкает тройку система с 285 000 тыс. CPU-ядер, введённая в эксплуатацию в 2021-м: у неё показатели производительности достигают 125,04 и 240 Пфлопс.

Фактически, как отмечается, единственное различие между списками Тор-100 суперкомпьютеров Китая от 2023 и 2024 годов заключается в их совокупной мощности, но даже этот показатель вырос незначительно — с 1,398 Эфлопс до 1,406 Эфлопс. Для сравнения: самый производительный в мире суперкомпьютер — американская система El Capitan — обладает быстродействием 1,742 Эфлопс.

 Источник: Hyperion Research

Источник: Hyperion Research

По косвенным признакам понятно, что у Китая есть несколько машин экзафлопсного класса. По оценкам Hyperion Research, в КНР развёрнуто уже пять подобных систем. Эти сведения официально не подтверждены, но участники рынка говорят, что китайские организации намеренно скрывают информацию о своих самых мощных НРС-системах, чтобы не спровоцировать дополнительные ограничения со стороны США. С 2021 года китайские компании не подают заявки на участие в рейтинге TOP500.

Постоянный URL: http://servernews.ru/1116057
28.12.2024 [10:10], Алексей Степин

Решения YADRO станут основой IT-инфраструктуры Евразийской экономической комиссии

YADRO играет немалую роль в прогрессе отечественной ИТ-индустрии, поскольку постоянно пополняет и развивает арсенал своих программных и аппаратных решений. На этот раз речь идёт о внедрении оборудования для обеспечения работы информационных ресурсов российского сегмента такой масштабной межгосударственной организации, как Европейская экономическая комиссия (ЕЭК).

Информационные системы ЕЭК весьма обширны: это и системы электронного документооборота, и средства автоматизации финансово-хозяйственной деятельности, различного рода порталы, базы данных, справочные системы, подсистемы администрирования, обеспечения ИТ-безопасности и многое другое.

Комплекс этих систем, носящий название Интегрированная информационная система Евразийского экономического союза (ИИС EAЭС) предоставляет оптимальные средства для взаимодействия стран-участниц союза и активно работающих с ЕАЭС частных компаний. В рамках проведённого тендера выбор был сделан в пользу серверов YADRO серии VEGMAN R120 G2 и систем хранения данных TATLIN.FLEX.PRO как наиболее полно отвечающих всем требованиям к функциональности и производительности.

О последних мы не столь давно уже рассказывали: компания-производитель выпустила систему TATLIN.FLEX.PRO v2 c обновленной аппаратной платформой. Это одна из моделей семейства систем хранения данных TATLIN.FLEX, предназначенная для проектов малой и средней сложности. Система обладает высокой гибкостью за счёт вариативности в выборе типа и количества модулей расширения: до 12, 24 и 78 накопителей, наличием блочного и файлового доступов к данным, необходимым в сегменте пакетом функциональности и высокой производительностью благодаря двухконтроллерной конфигурации с 256 ГБ RAM на каждый контроллер.

 Система хранения данных TATLIN.FLEX.PRO v2. Здесь и далее источник изображений: YADRO

Система хранения данных TATLIN.FLEX.PRO v2. Здесь и далее источник изображений: YADRO

Серверы VEGMAN R120 G2 являются одной из двух моделей второго поколения флагманской линейки серверов YADRO широкого назначения. Это компактные и эргономичные 1U-решения с высокими возможностями конфигурирования под различные типы рабочих нагрузок. Основой этих серверов является платформа Intel Xeon Ice Lake-SP. VEGMAN R120 G2 допускают установку двух процессоров с TDP до 205 Вт. Совокупный объём оперативной памяти может при этом достигать 8 Тбайт благодаря 32 разъёмам памяти DDR4-3200 в системе. Локальное администрирование сервера сделано удобным благодаря выносу на переднюю панель разъёма VGA и пары портов USB 2.0.

 Сервер VEGMAN R120 G2

Сервер VEGMAN R120 G2

В стандартную конфигурацию платформы VEGMAN R120 G2 входят четыре сетевых порта 1GbE RJ45, не считая переключаемого Host/BMC. Для установки карт расширения можно использовать до трёх отсеков PCIe 4.0 (до 2x16 + 1x8), дополненных отсеком OCP 3.0 PCIe 4.0 x8. В силу форм-фактора поддерживается установка до двух GPU. Загружаются эти системы с пары внутренних M.2 SSD, которые также можно объединить в RAID-массив. Фронтальная дисковая корзина имеет два варианта исполнения: четыре отсека LFF SAS/SATA или десять отсеков SFF SAS/SATA/NVMe. Ещё пара SFF-накопителей может быть установлена в задней дисковой корзине. Питается VEGMAN R120 G2 от двух (1+1) блоков мощностью до 1600 Вт каждый.

Дополнительное удобство управления, мониторинга и обновления парка оборудования YADRO обеспечивает система СУПРИМ, которую производитель предлагает в виде бесплатного образа виртуальной машины. Она собирает метрики со всего оборудования, умеет обновлять микрокоды и помогает быстрее вводить системы в эксплуатацию и легче их обслуживать.

Применительно к задачам проекта серверы VEGMAN R120 G2 обеспечат постоянную доступность ресурсов и данных вкупе с высокой скоростью обработки и защиты ценной информации. Дуэт VEGMAN R120 G2 и TATLIN.FLEX.PRO должен покрыть растущие потребности ЕЭК в вычислительных ресурсах и объёмах хранимых данных и, таким образом, создать прочный фундамент для бесперебойного функционирования и дальнейшего развития ИТ-инфраструктуры ЕАЭС.

Обе системы YADRO — СХД TATLIN.FLEX.PRO v2 и серверы VEGMAN R120 G2 — внесены в реестр электронной продукции Минпромторга РФ и производятся на крупнейшем в России предприятии полного цикла «Ядро Фаб Дубна».

Постоянный URL: http://servernews.ru/1115789
28.12.2024 [01:55], Владимир Мироненко

Дороже, но втрое эффективнее: NVIDIA готовит ускорители GB300 с 288 Гбайт HBM3E и TDP 1,4 кВт

NVIDIA выпустила новые ускорители GB300 и B300 всего через шесть месяцев после выхода GB200 и B200. И это не минорное обновление, как может показаться на первый взгляд — появление (G)B300 приведёт к серьёзной трансформации отрасли, особенно с учётом значительных улучшений в инференсе «размышляющих» моделей и обучении, пишет SemiAnalysis. При этом с переходом на B300 вся цепочка поставок меняется, и от этого кто-то выиграет, а кто-то проиграет.

Конструкция вычислительного кристалла B300 (ранее известного как Blackwell Ultra), изготавливаемого с использованием кастомного техпроцесса TSMC 4NP. Благодаря этому он обеспечивает на 50 % больше Флопс (FP4) по сравнению с B200 на уровне продукта в целом. Часть прироста производительности будет получена за счёт увеличения TDP, достигающим 1,4 кВт и 1,2 кВт для GB300 и B300 HGX соответственно (по сравнению с 1,2 кВт и 1 кВт для GB200 и B200). Остальное повышение производительности связано с архитектурными улучшениями и оптимизациями на уровне системы, такими как динамическое распределение мощности между CPU и GPU.

Кроме того, в B300 применяется память HBM3E 12-Hi, а не 8-Hi, ёмкость которой выросла до 288 Гбайт. Однако скорость на контакт осталась прежней, так что суммарная пропускная способность памяти (ПСП) по-прежнему составляет 8 Тбайт/с. В качестве системной памяти будут применяться модули LPCAMM. Разница в производительности и экономичности из-за увеличения объёма HBM намного больше, чем кажется. Усовершенствования памяти имеют решающее значение для обучения и инференса больших языковых моделей (LLM) в стиле OpenAI O3, поскольку более длинные последовательности токенов негативно влияют на скорость обработки и задержку.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

На примере обновления H100 до H200 хорошо видно, как память влияет на производительность ускорителя. Более высокая ПСП (H200 — 4,8 Тбайт/с, H100 — 3,35 Тбайт/с) в целом улучшила интерактивность в инференсе на 43 %. А большая ёмкость памяти снизила объём перемещаемых данных и увеличила допустимый размер KVCache, что увеличило количество генерируемых токенов в секунду втрое. Это положительно сказывается на пользовательском опыте, что особенно важно для всё более сложных и «умных» моделей, которые могут приносить больше дохода с каждого ускорителя. Валовая прибыль от использования передовых моделей превышает 70 %, тогда как для отстающих моделей в конкурентной open source среде она составляет менее 20 %.

 Источник изображения: TrendForce

Источник изображения: TrendForce

Однако одного наращивания скорости и памяти, как это делает AMD в Instinct MI300X (192 Гбайт), MI325X и MI355X (256 Гбайт и 288 Гбайт соответственно), мало. И дело не в том, что забагованное ПО компании не позволяет раскрыть потенциал ускорителей, а в особенности общения ускорителей между собой. Только NVIDIA может предложить коммутируемое соединение «все ко всем» посредством NVLink. В GB200 NVL72 все 72 ускорителя могут совместно работать над одной и той же задачей, что повышает интерактивность, снижая задержку для каждой цепочки размышлений и в то же время увеличивая их максимальную длину. На практике NVL72 — единственный способ увеличить длину инференса до более чем 100 тыс. токенов и при этом экономически эффективный, говорит SemiAnalysis. По оценкам, GB300 NVL72 обойдётся заказчиками минимум в $7,5 млн, тогда как GB200 NVL72 стоил порядка $3 млн.

Постоянный URL: http://servernews.ru/1115991
27.12.2024 [17:36], Руслан Авдеев

YADRO выпустила первые четырёхсокетные серверы V240 G3

Компания YADRO объявила о приёме заявок на демонстрационное тестирование четырёхпроцессорных серверов V240 G3 в форм-факторе 2U. Образцы, успешно протестированные в лаборатории, передадут до конца декабря одному из ключевых технологических партнеров. С января 2025 года YADRO начнет предоставлять демонстрационные платформы заказчикам на основе полученных запросов, сообщает пресс-служба компании.

Выход первых четырёхпроцессорных серверов YADRO был анонсирован на конференции «Цифровая индустрия промышленной России» (ЦИПР-2024) в Нижнем Новгороде в мае 2024 года. Там был показан инженерный концепт новинки.

Новые серверы YADRO V240 G3 обеспечат максимальную производительность благодаря четырём процессорам с поддержкой до 240 ядер и 16 Тбайт оперативной памяти. В модели доступно до 28 отсеков для SFF-накопителей, что обеспечивает гибкость настройки хранилища и высокую скорость ввода-вывода благодаря полной поддержке NVMe. Оптимизация TCO достигнута за счёт объединения вычислительных ресурсов двух двухпроцессорных серверов в единую компактную систему в форм-факторе 2U.

 Источник изображения: YADRO

Источник изображения: YADRO

Четырёхсокетные серверы YADRO V240 G3 предназначены для работы с наиболее ресурсоёмкими приложениями с высокими требованиями к вычислительным ресурсам: для виртуализации, высоконагруженных СУБД, аналитических и ERP-систем, электронной коммерции и банковских систем, а также обработки больших данных. Решение призвано стать оптимальным выбором для крупных финтех-компаний, бизнесов из сферы телекома, транспорта и логистики, промышленности и нефтегазовой индустрии. Все они ежедневно выполняют многопоточную обработку данных.

По словам директора по продуктам YADRO Павла Егорова, серверы с четырьмя сокетами сегодня востребованы в различных отраслях, где требуются мощные вычислительные ресурсы. Они подходят для выполнения самых ресурсоемких задач в корпоративных и облачных системах, связанных с критическими данными, высокой нагрузкой и вертикальным масштабированием. По его словам, необходимо также отметить эффективную обработку пиковых нагрузок, которые гибко распределяются между процессорами, обеспечивая стабильность работы и сокращая время выполнения сложных задач.

Постоянный URL: http://servernews.ru/1116016
Система Orphus