Материалы по тегу: s

04.03.2024 [09:30], Сергей Карасёв

QCT представила серверы на базе Intel Xeon для 5G-инфраструктур и ИИ

Компания Quanta Cloud Technology (QCT) в ходе выставки мобильной индустрии MWC 2024, которая в конце февраля прошла в Барселоне (Испания), представила серверы нового поколения QuantaGrid, QuantaPlex и QuantaEdge. Эти системы ориентированы на 5G-инфраструктуры, ресурсоёмкие ИИ-приложения и периферийные вычисления.

В частности, дебютировали модели QCT QuantaEdge EGX74I-1U и QuantaEdge EGX77B-1U на процессорах Intel Xeon Sapphire Rapids. Они отличаются небольшим энергопотреблением и сверхмалой глубиной: в случае EGX77B-1U она составляет 300 мм. По заявлениям QCT, эти машины хорошо подходят для сценариев Open RAN. Вариант EGX74I-1U поддерживает память DDR5-4800, по два накопителя M.2 2280 (NVMe или SATA-3) и SFF U.2, одну карту FHHL PCIe 5.0 x16 и две карты FH3/4L PCIe 5.0 x16. Диапазон рабочих температур простирается от -40 до +65 °C.

В семействе QuantaGrid демонстрируются серверы следующего поколения на платформе Birch Stream, оснащённые чипами Intel Xeon Sierra Forest и Granite Rapids. Они предназначены прежде всего для организации ИИ-вычислений на периферии. В серию QuantaGrid вошли двухсокетные модели. Кроме того, представлено решение QCT Platform on Demand (QCT POD) с аппаратными компонентами Intel для конвергентных НРС-систем и нагрузок ИИ.

 Intel Birch Stream

Intel Birch Stream

В свою очередь, QCT OmniPOD Enterprise 5G Solution на платформе Intel представляет собой комплексное решение для частных сетей 5G. Оно состоит из ядра 5G, 5G RAN и системы управления сетью. Изделие может быть интегрировано с камерами видеонаблюдения, автономными мобильными роботами и другими устройствами для организации видеоаналитики, классификации изображений и моделирования.

Постоянный URL: http://servernews.ru/1101121
03.03.2024 [03:14], Сергей Карасёв

Клиенты облачных платформ фактически используют только 13 % предоставленных им CPU-ресурсов

Исследование Cast AI показало, что клиенты облачных платформ используют в среднем только около 13 % предоставляемых им CPU-ресурсов и примерно 20 % выделенной памяти, передаёт DataCenter Dynamics. Это приводит к росту затрат и увеличению углеродного следа. А из-за того, что одни предприятия запрашивают избыточное количество мощностей, другие не могут получить доступ к вычислительным ресурсам.

Cast AI, предоставляющая средства оптимизации затрат на Kubernetes-платформы, проанализировала работу 4000 кластеров в Amazon Web Services (AWS), Google Cloud Platform и Microsoft Azure в период с 1 января по 31 декабря 2023 года. Оценивались кластеры с 50 и более процессорами.

 Источник изображения: Google

Источник изображения: Google

Оказалось, что в AWS и Azure уровень использования CPU-ресурсов находится на отметке 11 %, у Google Cloud — 17 %. В плане потребления памяти показатель равен 18 % у Google Cloud, 20 % — у AWS и 22 % — у Azure. В случае крупных кластеров, насчитывающих 1000 и более процессоров, средняя утилизация CPU составляет 17 %.

Аналитики Cast AI называют несколько причин, из-за которых наблюдается недостаточное использование облачных ресурсов. В частности, многие клиенты резервируют больше вычислительных мощностей, чем им необходимо на самом деле. Кроме того, заказчики прохладно относятся к так называемым спотовым инстансам. Такая модель обеспечивает значительную экономию средств (в некоторых случаях до 90 %), но клиенты опасаются возможной нестабильности. Ещё одна причина — недостаточное использование ресурсов кастомизированных инстансов, для которых можно выбрать соотношение CPU и RAM.

Для поставщиков облачных услуг сложившаяся ситуация в некотором смысле играет на руку: из-за неполной загрузки мощностей снижается потребность в электроэнергии. При этом провайдеры по-прежнему получают доход, основанный на гипотетическом использовании их серверов. Но вместе с тем приходится закупать больше дорогостоящего оборудования, чем это по факту необходимо.

Постоянный URL: http://servernews.ru/1101118
01.03.2024 [13:38], Сергей Карасёв

Объём мирового рынка облачных инфраструктур в 2023 году достиг $290 млрд

Компания Canalys представила результаты исследования мирового рынка облачных инфраструктур в IV квартале и 2023 году в целом. Отрасль продолжает развиваться, чему способствует стремительный рост спроса на услуги, связанные с генеративным ИИ и машинным обучением.

В последней четверти 2023-го объём рынка достиг $78,1 млрд. Это на 19 %, или на $78,1 млрд, больше по сравнению с аналогичным периодом предыдущего года. Затраты в 2023 году в целом составили $290,4 млрд по сравнению с $247,1 млрд в 2022-м. Таким образом, зафиксирован рост примерно на 18 %.

 Источник изображений: Canalys

Источник изображений: Canalys

Крупнейшим мировым поставщиком облачных услуг остаётся Amazon Web Services (AWS) с долей приблизительно 31 % по итогам IV квартала 2023 года. Выручка компании увеличилась на 13 % в годовом исчислении. На втором месте располагается Microsoft Azure с долей около 26 % и ростом выручки на 30 % по отношению к последней четверти 2022-го. Замыкает тройку платформа Google Cloud, у которой выручка в годовом исчислении поднялась на 26 %, а рыночная доля оказалась на отметке 10 %.

Canalys отмечает, что в совокупности три названные компании занимают две трети — 66 % — глобального облачного рынка. Все прочие игроки сообща удерживают 34 %. Ожидается, что в дальнейшем расширению отрасли будут способствовать новые приложения на базе ИИ, а также большие языковые модели. Аналитики прогнозируют, что в 2024 году объём рынка в денежном выражении увеличится на 20 %. Если эти ожидания оправдаются, суммарные затраты могут достичь почти $350 млрд.

Постоянный URL: http://servernews.ru/1101064
01.03.2024 [13:22], Сергей Карасёв

MiTAC представила серверы с процессорами Intel Xeon Emerald Rapids, ускорителями Intel Max и Flex

Компания MiTAC Computing Technology, выкупившая бизнес Intel по производству серверов, анонсировала серверы, выполненные на новейшей аппаратной платформе Intel Xeon Emerald Rapids. В оснащение систем, оптимизированных для HPC-задач и приложений ИИ, входят ускорители серий Intel Max и Intel Flex.

Одна из новинок — сервер M50FCP2UR208 в форм-факторе 2U (ранее Intel Fox Creek Pass). Он допускает установку двух ускорителей Intel Data Center GPU Max 1100 (Ponte Vecchio) или четырёх изделий Intel Data Center GPU Flex 140/170 (Arctic Sound-M). Возможно использование чипов Xeon Emerald Rapids с показателем TDP до 350 Вт.

Предусмотрены 32 слота для модулей DDR5 суммарным объёмом до 12 Тбайт. Кроме того, есть разъёмы PCIe 5.0 в различных конфигурациях (в зависимости от модификации), десять SATA-портов, слот OCP 3.0 и пять портов USB. Мощность блока питания достигает 2100 Вт. Имеются отсеки для 24 SSD типоразмера SFF. Допускается организация массивов RAID 0/1/5/10. Габариты сервера составляют 770 × 438 × 87 мм.

 Источник изображения: MiTAC

Источник изображения: MiTAC

Кроме того, дебютировали системы D50DNP1MFALLC и D50DNP2MFALAC (ранее Intel Denali Pass). Первая рассчитана на четыре ускорителя Intel Data Center GPU Max 1550 (Ponte Vecchio), вторая — на четыре карты Intel Data Center GPU Max 1100. Используется форм-фактор 2U4N — 2U-корпус с четырьмя узлами. В зависимости от варианта исполнения задействовано воздушное или жидкостное охлаждение.

Говорится о поддержке оперативной памяти стандарта DDR5 (16 слотов; до 2 Тбайт) и высокопроизводительных сетевых карт, в том числе с пропускной способностью до 400 Гбит/с. Среди прочего упомянута поддержка Intel Dynamic Load Balancer, Intel QAT, Intel DSA и Intel IAA. Обе модели получили два коннектора M.2 для SSD, а вариант D50DNP2MFALAC также снабжён двумя фронтальными SFF-отсеками.

Постоянный URL: http://servernews.ru/1101058
29.02.2024 [17:19], Сергей Карасёв

Переговоры о продаже подразделения ЦОД и хостинга компании Atos провалились

Французский IT-холдинг Atos, оказавшийся в сложном финансовом положении, по сообщению The Register, не смог договориться о продаже своего подразделения дата-центров и хостинга Tech Foundations компании EP Equity Investment (EPEI), которая контролируется чешским миллиардером Даниэлем Кретинским (Daniel Křetínský).

Atos в течение нескольких ближайших лет необходимо погасить кредиты на сумму приблизительно €4,8 млрд. Предполагалось, что продажа группы Tech Foundations принесёт €2 млрд. Обсуждался вариант, согласно которому EPEI должна будет выплатить €100 млн, а также приобрести долг подразделения в размере €1,9 млрд.

В заявлении Atos говорится, что «предложенные условия сделки и её стоимость не могут быть взаимно согласованы». Поэтому переговоры прекращены без выплаты какой-либо компенсации любой из сторон. Вместе с тем Atos назначила независимое уполномоченное лицо для оказания помощи в обсуждении плана рефинансирования с банками.

 Источник изображения: Atos

Источник изображения: Atos

Пока Atos продолжит самостоятельно управлять подразделением Tech Foundations и группой Eviden. Эти структуры будут функционировать в качестве независимых предприятий. Одновременно Atos продолжит рассматривать «стратегические варианты» трансформации бизнеса, которые отвечают интересам её клиентов, сотрудников и акционеров.

Компания также назначила трёх новых членов совета директоров, которые, как ожидаются, помогут в решении проблем. Одним из них стал Дэвид Лаяни (David Layani) — генеральный директор фирмы One Point, которая владеет 11,4 % в Atos Group. Кроме того, в правление вошли Хелен Ли Буиг (Helen Lee Bouygues), президент службы безопасности LB Associés, и Мэнди Меттен (Mandy Metten), которая в настоящее время занимает пост руководителя группы исполнительных и стратегических функций Atos.

По итогам 2023 финансового года выручка Atos поднялась только на 0,4 % — до €10,69 млрд. При этом в подразделении Tech Foundations зафиксировано падение на 1,7 % — до €5,60 млрд, тогда как группа Eviden показала прибавку на 2,9 % — до €5,09 млрд.

Постоянный URL: http://servernews.ru/1101023
29.02.2024 [13:01], Владимир Мироненко

ИИ-консилиум: корпоративная LLM Samba-1 c 1 трлн параметров объединила более 50 открытых моделей

Стартап SambaNova Systems представил Samba-1, модель генеративного ИИ с 1 трлн параметров, предназначенную для использования предприятиями. SambaNova описывает новую модель как «объединение экспертных архитектур» (Composition of Experts, CoE), которое включает более 50 открытых моделей генеративного ИИ высочайшего качества, в том числе Llama2 7B/13B/70B, Mistral 7B, DeepSeek Coder 1.3B/6.7B/33B, Falcon 40B, DePlot, CLIP, Llava.

В частности, Llama 2 может генерировать текст, создавать программный код и решать математические задачи. Есть и более специализированные LLM, такие как DePlot от Google, которая может вводить информацию из диаграмм и других визуализаций данных в электронную таблицу. Samba-1 уже используется клиентами и партнёрами SambaNova, включая Accenture и NetApp.

 Источник изображений: SambaNova

Источник изображений: SambaNova

SambaNova позиционирует Samba-1 как первую модель с 1 трлн параметров для предприятий с регулируемой деятельностью, которая является приватной, безопасной и на порядок более эффективной, чем любая другая модель такого размера. Заказчик может установить контроль доступа к данным для отдельных пользователей. Желающие могут ознакомиться с работой модели.

По словам главы SambaNova, Samba-1 оптимизирована для работы с чипом SN40L, выпущенным стартапом прошлой осенью. «Samba-1 способна конкурировать с GPT-4, но она лучше подходит для предприятий, поскольку её можно развернуть как локально, так и в частном облаке, чтобы клиенты могли точно настроить модель с использованием своих личных данных, не отдавая их в открытый доступ», — добавил он.

SambaNova утверждает, что инференс этой модели обходится в десять раз дешевле, чем для конкурирующих LLM. Получив запрос, Samba-1 решает, какая из её внутренних моделей лучше всего приспособлена для его обработки, и поручает ей сгенерировать ответ. То есть активируется только одна из относительно небольших моделей, тогда как традиционные монолитные LLM требуют активации целиком.

Стартап SambaNova привлёк около $1 млрд инвестиций от ряда компаний, включая Intel Capital и GV (инвестиционное подразделение Alphabet Inc). По итогам раунда финансирования в начале 2021 года рыночная стоимость стартапа оценивается в более чем $5 млрд.

Постоянный URL: http://servernews.ru/1100986
28.02.2024 [18:52], Руслан Авдеев

AWS откроет в Мексике свой первый облачный регион и вложит $5 млрд в развитие ЦОД

Amazon Web Services (AWS) намерена построить свой второй крупный облачный регион в Латинской Америке, на этот раз — в Мексике. Первым стал AWS South America в Сан-Паулу (Бразилия). Блог компании сообщает, что новый регион введут в эксплуатацию в начале 2025 года. AWS Mexico Region получит три независимые зоны доступности, удалённые друг от друга, но связанные широкополосными оптоволоконными каналами с низким уровнем задержки сигнала.

Компания давно инвестирует в развитие информационной инфраструктуры в Мексике. С 2020 года AWS запустила семь узлов Amazon CloudFront и сервис AWS Outposts, а в 2023 году появились выделенные локальные зоны AWS Local Zone. Клиентами AWS в стране уже являются Banco Santander Mexico, SkyAlert, Cinepolis, Aeromexico, Kueski и Bolsa Institucional de Valores (BIVA).

 Источник изображения: Andrew Schultz/unsplash.com

Источник изображения: Andrew Schultz/unsplash.com

По данным Datacenter Dynamics, местные власти приветствовали инвестиции AWS и расширение спектра услуг в стране, это поможет её цифровой и экономической трансформации. По их словам, готовность компании инвестировать в Мексику демонстрирует уверенность бизнеса в привлекательности условий ведения дел. Власти также приветствовали инвестиции AWS в обучение студентов, мелкие, средние и крупные компании и взаимодействие с предпринимателями цифрового сектора.

В стране уже присутствуют регионы Huawei Cloud и Oracle, а Microsoft и Google также планируют запустить здесь собственные сервисы. AWS сообщила о планах инвестировать $5 млрд в развитие своих мексиканских дата-центров в течение 15 лет. Компания также работает над четырьмя облачными регионами — в Германии, Малайзии, Новой Зеландии и Таиланде — и 15 новыми зонами доступности.

Постоянный URL: http://servernews.ru/1100968
28.02.2024 [16:03], Сергей Карасёв

«Инферит» представил отечественные СХД с возможностью масштабирования до 4 тыс. накопителей

Российский поставщик IT-продукции «Инферит» (ГК Softline) анонсировал три СХД: HS4240, FS2240 и FS2241. Кроме того, предлагается сервер RS208, на базе которого возможно создание отказоустойчивой высокопроизводительной программно-определяемой системы хранения.

Все СХД совместимы с Windows и Linux. Упомянута поддержка OpenStack, VMware, Hyper-V, Docker, Kubernetes и других гетерогенных облачных вычислительных платформ.

Решение HS4240 выполнено в формате 4U на базе двух неназванных процессоров с 12 ядрами (2,3 ГГц). Допускается установка 24 накопителей SAS/SATA стандарта LFF/SFF. При этом система масштабируется до 2000 накопителей SSD/HDD. Устройство оснащено двумя контроллерами, работающими в режиме «активный — активный». На каждый контроллер возможно установить до шести карт расширения. В зависимости от модификации доступны до четырёх портов FC8/16/32 и до четырёх портов 10/25/40/100GbE. Реализована поддержка протоколов NFS, CIFS, S3, FTP, SMB, а также iSCSI и FC. Задействованы два блока питания и четыре вентилятора охлаждения.

 Источник изображений: «Инферит»

Источник изображений: «Инферит»

В свою очередь, FS2240 и FS2241 — это высокопроизводительные СХД типа All-flash в форм-факторе 2U. Они рассчитаны на 24 накопителя SAS SSD формата SFF ёмкостью до 16 Тбайт каждый. Первая из указанных моделей несёт на борту два 8-ядерных чипа с частотой 3,2 ГГц; возможно масштабирование до 2048 накопителей. Вторая модификация оборудована двумя 14-ядерными процессорами с той же частотой; допускается масштабирование до 4096 SSD. Обе СХД снабжены двумя контроллерами в режиме «активный — активный». Заявлена поддержка iSCSI, FC, NFS, CIFS, FTP, SMB. Есть до четырёх портов FC8/16/32 и до четырёх портов 10/25/40GbE, а также шесть слотов для карт расширения в расчёте на контроллер. Применены два блока питания мощностью 1200 Вт каждый, а за охлаждение отвечают в общей сложности восемь вентиляторов.

СерверRS208 формата 2U поддерживает установку двух процессоров Intel Xeon поколения Skylake, Cascade Lake или Cascade Lake Refresh в исполнении LGA 3647. Есть 16 слотов для модулей DDR4-2133/2400/2666/2933. Во фронтальной части расположены отсеки для восьми накопителей SAS/SATA формата LFF/SFF с возможностью горячей замены, четыре из них имеют поддержку NVMe. Сзади расположены два SFF-отсека для накопителей SAS/SATA, а внутри корпуса доступны четыре посадочных места для SFF-устройств. Может быть также установлен модуль M.2 2280 (PCIe x4 или SATA). Предусмотрены четыре слота PCIe x16 и два слота PCIe x8, четыре сетевых порта 1GbE RJ-45 и выделенный сетевой порт управления. Применены два блока питания 80 Plus Platinum на 800 Вт и система воздушного охлаждения.

Постоянный URL: http://servernews.ru/1100948
27.02.2024 [23:20], Алексей Степин

«Тантор Лабс» и «Аквариус» представили программно-аппаратную БД-платформу Tantor XData

Компания «Тантор Лабс», разработчик СУБД Tantor и российский производитель вычислительной техники, группа компаний «Аквариус» объявили о выпуске на рынок программно-аппаратного комплекса Tantor XData. Главное предназначение новинки, как нетрудно догадаться, это обслуживание СУБД Tantor, разработанной «Тантор Лабс» на основе PostgreSQL и оптимизированной для применения в высоконагруженных сценариях.

Компоненты Tantor XData внесены в государственные реестры Минпромторга и Минцифпы. В стандартном исполнении основой Tantor XData являются вычислительные модули — двухпроцессорные серверы «Аквариус» на базе Intel Xeon Cascade Lake-SP. Но возможны и нестандартные варианты исполнения с четырёхпроцессорными серверами, а также с двухпроцессорными вариантами на базе процессоров AMD EPYC, либо двух- и четырёхпроцессорные серверы на базе Arm (Baikal-S или Kunpeng 920).

Минимальная конфигурация включает в себя пять серверов, три нужны для запуска СУБД Tantor, два других являются серверами управления и резервного копирования. Она располагает 144 процессорными ядрами (288 vCPU), 4,5 Тбайт оперативной памяти, 420 Тбайт хранилища под данные СУБД и 500 Тбайт — под резервные копии и логи. Масштабируется система группами серверов, а максимальная конфигурация состоит из 18 машин с 864 ядрами (1728 vCPU), 27 Тбайт RAM, 2,5 Пбайт под данные БД без учёта репликации, а также 3 Пбайт под резервные копии и логи. Одна работающая копия БД может использовать до 92 vCPU, 1,5 Тбайт памяти и 120 Тбайт хранилища.

 Источник: «Тантор Лабс»

В основе программной части лежит ОС Astra Linux Special Edition, способная работать в трёх режимах защиты: «Орёл» (базовый), «Воронеж» (усиленный) и «Смоленск» (максимальный). Поверх ОС функционирует программный кластер из трёх связанных репликацией копий Tantor Special Edition, поддерживающий автоматическое масштабирование ресурсов. В состав платформы входят службы Tantor Appliance Manager, управляющая аппаратными ресурсами и кластерами БД, и Backman, отвечающая за резервное копирование. Для управление ПАК имеется графический интерфейс.

Tantor XData поставляется в полностью собранном виде и готова к использованию «из коробки». ПАК подходит как для организации хранилищ данных с онлайн-аналитикой (OLAP), так и для развёртывания системы обработки транзакций в режиме реального времени (OLTP). Новинка уже применяется в тестовом режиме некоторыми российскими компаниями. Стоимость платформы варьируется в зависимости от потребностей заказчика и определяется сочетанием программно-аппаратных ресурсов и сервисной поддержки вендоров.

Постоянный URL: http://servernews.ru/1100905
27.02.2024 [16:08], Сергей Карасёв

Supermicro анонсировала ИИ- и телеком-серверы на базе AMD EPYC Siena, Intel Xeon Emerald Rapids и NVIDIA Grace Hopper

Компания Supermicro представила на выставке мобильной индустрии MWC 2024 в Барселоне (Испания) новые серверы для телекоммуникационной отрасли, 5G-инфраструктур, задач ИИ и периферийных вычислений. Дебютировали модели с процессорами AMD EPYC 8004 Siena, Intel Xeon Emerald Rapids и с суперчипами NVIDIA GH200 Grace Hopper.

В частности, анонсирована стоечная система ARS-111GL-NHR высокой плотности в форм-факторе 1U на базе GH200. Устройство наделено двумя слотами PCIe 5.0 x16, восемью фронтальными отсеками для накопителей E1.S NVMe и двумя коннекторами для модулей M.2 NVMe. Сервер предназначен для работы с генеративным ИИ и большими языковыми моделями (LLM).

На периферийные 5G-платформы ориентировано решение SYS-211E ультрамалой глубины — 298,8 мм. Модель рассчитана на один процессор Xeon Emerald Rapids в исполнении LGA-4677. Есть восемь слотов для модулей DDR5-5600 общей ёмкостью до 2 Тбайт и до шести слотов PCIe 5.0 в различных конфигурациях для карт расширения. Модификация SYS-211E-FRDN13P для сетей Open RAN предлагает 12 портов 25GbE и поддерживает технологию Intel vRAN Boost.

Ещё одна новинка — сервер AS-1115S-FWTRT формата 1U с возможностью установки одного процессора EPYC 8004 Siena (до 64 ядер). Реализована поддержка до 576 Гбайт памяти DDR5-4800 (шесть слотов), двух портов 10GbE, двух слотов PCIe 5.0 x16 FHFL и одного слота PCIe 5.0 x16. Решение предназначено для edge-приложений.

Представлены также многоузловая платформа SYS-211SE-31D/A и система высокой плотности SYS-221HE: обе модели выполнены в формате 2U на процессорах Xeon Emerald Rapids. Второй из этих серверов допускает монтаж до трёх двухслотовых ускорителей NVIDIA H100, A10, L40S, A40 или A2. Наконец, анонсирован сервер AS-1115SV типоразмера 1U с поддержкой процессоров EPYC 8004 Siena, 576 Гбайт памяти DDR5, трёх слотов PCIe 5.0 x16 и 10 накопителей SFF.

Постоянный URL: http://servernews.ru/1100861
Система Orphus