Материалы по тегу: c

19.01.2022 [14:11], Владимир Мироненко

IDC: ежегодный прирост расходов на облачную инфраструктуру вычислений и хранения останется в пределах 12,4% до 2025 года

Согласно исследованию Worldwide Quarterly Enterprise Infrastructure Tracker: Buyer and Cloud Deployment компании IDC Corp., расходы на продукты инфраструктуры вычислений и хранения данных для облачной инфраструктуры, включая выделенные и общедоступные системы, увеличились в III квартале 2021 года до $18,6 млрд, что на 6,6 % больше показателя аналогичного квартала 2020 года.

Первая глобальная волна пандемии привела к переходу компаний на удалённую работу и резкому увеличению инвестиций в облачные сервисы и инфраструктуру. Инвестиции в не связанную с облаком инфраструктуру в III квартале увеличились на 7,3 % в годовом исчислении, до $14,6 млрд, то есть третий квартал подряд наблюдается рост расходов после периода снижения, начавшегося во II квартале 2019 года.

Расходы на общедоступные облачные инфраструктуры достигли $13 млрд, увеличившись на 8,6 % по сравнению с III кварталом 2020 года и на 6,6% по сравнению со II кварталом. То есть продолжилась тенденция роста в годовом исчислении, начавшаяся с IV квартала 2019 года и прерванная во II квартале 2021, поскольку во II квартале 2020 года расходы увеличились на 55,1 % из-за резкого роста спроса на общедоступные облачные услуги в первые месяцы пандемии.

IDC прогнозирует стабильно высокий рост спроса на общедоступную облачную инфраструктуру, расходы на которую в 2022 году превысят затраты на инфраструктуру, не связанную с облаком. Также ожидается, что в течение всего прогнозируемого периода расходы на облачные среды будут по-прежнему превышать затраты, которые не связаны с облачными технологиями.

Источник: IDC

Источник: IDC

Согласно IDC, в 2021 году расходы на облачную инфраструктуру вырастут на 8,3 % по сравнению с 2020 годом, т.е. до $71,8 млрд, в то время как на необлачную инфраструктуру затраты увеличатся на 1,9 % — до $58,4 млрд после двухлетнего спада. Общая облачная инфраструктура по оценкам аналитиков должна вырасти на 7,2 % в годовом исчислении до $49,7 млрд, а расходы на выделенную облачную инфраструктуру увеличатся на 10,7 % до $22,2 млрд.

Категория поставщиков услуг охватывает сегмент облачных и цифровых услуг, услуг связи и управляемых услуг (Managed Services Provider, MSP). В III квартале 2021 года этот сегмент в целом потратил $18,9 млрд на инфраструктуру вычислений и хранения, что на 10,2 % больше, чем в III квартале 2020 года, и на 6,7 % больше, чем предыдущем квартале. Эти расходы составили 57,1 % затрат всего рынка инфраструктуры вычислений и хранения. Ожидается, что расходы поставщиков услуг на вычисления и хранение данных достигнут $72,6 млрд в 2021 году, что на 7,4 % больше, чем в 2020 году.

На региональном уровне расходы на облачную инфраструктуру в годовом исчислении выросли, причём уровень роста варьируется в зависимости от региона. В субрегионах Азиатско-Тихоокеанского региона, Канады и Европы рост расходов выражается двузначным числом, в то время как в Латинской Америке, на Ближнем Востоке и в Африке, а также в США наблюдался более умеренный рост расходов, отражаемый однозначным показателем.

В отчётном квартале Азиатско-Тихоокеанский регион (за исключением Японии и Китая) продемонстрировал самый высокий рост расходов на облачную инфраструктуру в годовом исчислении на уровне 64,3 %, в то время как в США зафиксирован самый слабый рост на уровне 1,1 %. Ожидается, что в 2021 году эти расходы вырастут во всех регионах по сравнению с 2020 годом, особенно в регионах Азиатско-Тихоокеанского региона (за исключением Японии), Канаде, Центральной и Восточной Европе. Также ожидается, что Соединенные Штаты продемонстрируют лишь незначительный рост в годовом исчислении на уровне 0,4 %.

В долгосрочной перспективе IDC ожидает, что среднегодовой темп роста расходов на облачную инфраструктуру вычислений и хранения данных составит 12,4 % в период с 2020 по 2025 год, достигнув $118,8 млрд в 2025 году и составив 67,0 % от общих расходов на инфраструктуру вычислений и хранения. На общедоступную облачную инфраструктуру будет приходиться 70,9 % от этой суммы, а среднегодовой темп роста составит 12,7 %. Расходы на выделенную облачную инфраструктуру будут расти в среднем на 11,5 %. Расходы на необлачную инфраструктуру стабилизируются на уровне 0,5 % в год, достигнув $58,6 млрд в 2025 году. Ожидается, что расходы поставщиков услуг на вычислительную инфраструктуру и инфраструктуру хранения будут расти в среднем на 1,3 % и достигнут $115,4 млрд в 2025 году.

Постоянный URL: http://servernews.ru/1058299
18.01.2022 [16:49], Алексей Степин

NVIDIA создаст в Израиле подразделение для разработки серверных CPU

В апреле прошлого года глава NVIDIA Дженсен Хуанг (Jensen Huang) раскрыл первые сведения о серверном Arm-процессоре под кодовым именем Grace. Главным «мозговыми центром» компании, ответственным за его создание, станет израильский центр исследований и разработок. Он уже насчитывает около 2800 сотрудников, но компания хочет организовать новую рабочую группу, связанную именно с HPC-решениями, и планирует нанять ещё минимум несколько сотен специалистов, сообщает Globes.

Столь серьёзных масштабов израильский исследовательский отдел NVIDIA достиг за счёт приобретения компанией известного разработчика сетевых чипов и технологий Mellanox. Также NVIDIA активно сотрудничает с местной экосистемой стартапов и разработчиков посредством программ NVIDIA Inception Program и Developer Program.

Изображения: NVIDIA

Изображения: NVIDIA

Новая рабочая группа, ориентированная на создание процессоров, будет тесно сотрудничать с уже имеющимися командами, работающими в области DPU и ИИ. Последнее немаловажно, поскольку Grace в первую очередь нужен для поддержки работы ускорителей NVIDIA. Это поможет компании избавиться от зависимости со стороны AMD и Intel, чьи процессоры используются в платформах DGX/HGX. Новый чип NVIDIA должен увидеть свет в начале 2023 года.

Архитектура Grace изначально будет рассчитана на тесную интеграцию с ускорителями и высокоскоростной памятью

Архитектура Grace изначально будет рассчитана на тесную интеграцию с ускорителями и высокоскоростной памятью

Ожидается, что использование Grace позволит получить десятикратный рост производительности в сравнении с существующими решениями. Новый чип будет использовать шину NVLink 4.0 с пропускной способностью до 900 Гбайт/с, что позволит сделать интеграцию CPU и ускорителей более тесной. Первые заказчики систем на базе Grace уже известны — это Лос-Аламосская национальная лаборатория и Швейцарский национальный суперкомпьютерный центр CSCS. Оба суперкомпьютера построит HPE.

Постоянный URL: http://servernews.ru/1058237
17.01.2022 [15:36], Сергей Карасёв

Одноплатный компьютер Intel NUC11ATBC4 оснащён чипом Intel Jasper Lake

Корпорация Intel анонсировала одноплатный компьютер NUC11ATBC4, входящий в серию NUC 11 Essential (Atlas Canyon). Новинка подходит для применения в составе встраиваемых систем. В основу положена 10-нм SoC Intel Celeron N5105 (поколение Jasper Lake) с TDP 15 Вт.

Этот чип содержит L3-кеш объёмом 4 Мбайт, GPU Intel UHD Graphics и четыре ядра поколения Tremont без поддержки многопоточности. Базовая тактовая частота составляет 2,0 ГГц, а максимальная — до 2,9 ГГц. Предусмотрено использование до 32 Гбайт оперативной памяти DDR4-2933 в виде двух модулей SO-DIMM. Есть 64 Гбайт памяти eMMC. Может быть также подключён твердотельный накопитель M.2 2280 с интерфейсом PCIe или SATA 3.0.

Источник изображения: CNX Software

Источник изображения: CNX Software

Для вывода изображения могут быть использованы интерфейсы HDMI 2.0b и DisplayPort 1.4. Поддерживаются два монитора формата 4K. В число прочих разъёмов входят USB 3.2 Gen 1 и USB 2.0, а также стандартные 3,5-мм аудиогнёзда. За проводное подключение к компьютерной сети отвечает 1GbE-контроллер с разъёмом RJ45. Кроме того, доступен адаптер беспроводной связи Intel Wireless-AC 9462 c Wi-Fi 5 и Bluetooth 5.0.

Заявлена поддержка Windows 11 и Windows 10, а также Linux. Плата Intel NUC11ATBC4 может применяться в компактных компьютерах вроде NUC (на изображении ниже). Отметим, что анонс самих SoC состоялся ещё год назад, и за это время другие производители успели представить различные решения на их основе.

Постоянный URL: http://servernews.ru/1058155
15.01.2022 [14:31], Сергей Карасёв

IDC: затраты в области edge-решений в 2022 году значительно вырастут

IDC опубликовала свежий прогноз по мировому рынку периферийных вычислений: по мнению аналитиков, в обозримом будущем данное направление будет демонстрировать устойчивый рост на фоне глобальной цифровой трансформации. По оценкам, в прошлом году затраты в этой сфере составили приблизительно $153,3 млрд. В нынешнем году ожидается увеличение расходов на 14,8 %, до $176,0 млрд.

В дальнейшем расходы корпоративных заказчиков и провайдеров на оборудование, ПО и сервисы в этом сегменте продолжат увеличиваться — в 2025-м затраты составят без малого $274 млрд. IDC идентифицировала более 150 сценариев применения edge-технологий. В текущем году наибольшие вложения будут наблюдаться в сегментах сетей доставки контента (CDN) и виртуалиованных сетевых функций (NFV): суммарно эти два направления покажут результат в $26 млрд.

Источник изображения: pixabay.com / geralt

Источник изображения: pixabay.com / geralt

В целом, в нынешнем году около 85 % всех расходов в сфере периферийных вычислений придётся на оборудование и сервисы, оставшаяся часть — на программное обеспечение. С географической точки зрения крупнейшим рынком останутся США с затратами в размере $76,5 млрд в 2022 году. Далее расположатся Западная Европа и Китай с результатом $30,6 и $20,8 млрд соответственно.

Постоянный URL: http://servernews.ru/1058087
14.01.2022 [22:48], Алексей Степин

Будущие ускорители NVIDIA могут получить MCM-компоновку с ИИ/HPC-движками и гигабайтными кешами

Монолитная компоновка для современных сложных чипов уже становится слишком неэффективной. Бороться с этим можно по-разному. Один из путей подразумевает интеграцию всё более сложных структур на уровне единой кремниевой подложки, а другой — использование мультичиповой (MCM) или, иначе говоря, чиплетной компоновки. К последнему варианту и склоняется NVIDIA, хотя причины несколько отличаются от тех, которыми руководствуются другие вендоры.

GPU и ускорители становятся сложнее гораздо быстрее CPU, и на текущий момент мощные вычислители для ЦОД подбираются к пределам возможностей основных контрактных производителей, таких как TSMC и Samsung. Но это только половина уравнения. Вторая заключается в том, что взрывная популярность систем и алгоритмов машинного интеллекта требует иных вычислительных возможностей, нежели более привычные HPC-задачи.

Дивергенция GPU: вычислительный (сверху) и машинного обучения. (Изображения: NVIDIA)

Дивергенция GPU: вычислительный (сверху) и машинного обучения. (Изображения: NVIDIA)

Как следствие, разработчикам приходится делать выбор, чему в большей мере отдать предпочтение в компоновке новых поколений ускорителей: FP32/64-движкам или блокам, оптимизированным для вычислений INT8, FP16 и прочих специфических форматов. И здесь использование MCM позволит скомпоновать конечный продукт более гибко и с учётом будущей сферы его применения.

Различиые варианты конфигурации в рамках NVIDIA COPA

Различиые варианты конфигурации в рамках NVIDIA COPA

Ещё в публикации NVIDIA от 2017 года было доказано, что компоновка с четырьмя чиплетами будет на 45,5% быстрее самого сложного на тот момент ускорителя. А в 2018-м компания рассказала о прототипе RC 18. В настоящее время известно, что технология, разрабатываемая NVIDIA, носит название Composable On Package GPU, но в отличие от прошлых исследований упор сделан на обкатке концепции различных составных ускорителей для сфер HPC и машинного обучения.

Симуляция гипотетического ускорителя GPU-N, созданного на основе 5-нм варианта дизайна GA100, показывает довольно скромные результаты в режиме FP64 (12 Тфлопс, ½ от FP32), но четыре таких чиплета дадут уже солидные 48 Тфлопс, сопоставимые с Intel Ponte Vecchio (45 Тфлопс) и AMD Aldebaran (47,9 Тфлопс). А вот упор на FP16 делает даже один чип опаснейшим соперником для Graphcore, Groq и Google TPU — 779 Тфлопс!

Варианты упаковки будущих МСМ-процессоров NVIDIA

Варианты упаковки будущих МСМ-процессоров NVIDIA

Но симуляции показывают также нехватку ПСП именно на ИИ-задачах, так что компания изучает возможность иной иерархии памяти, с 1-2 Гбайт L2-кеша в виде отдельных чиплетов в различных конфигурациях. Некоторые варианты предусматривают даже отдельный ёмкий кеш L3. Таким образом, будущие ускорители с чиплетной компоновкой обретут разные черты для HPC и ИИ.

В первом случае предпочтение будет отдано максимальной вычислительной производительности, а подсистема памяти останется классической. Как показывает симуляция, даже урезанная на 25% ПСП снижает производительность всего на 4%. Во втором же варианте, для ИИ-систем, упор будет сделан на чипы сверхъёмкого скоростного кеша и максимизацию совокупной пропускной способности памяти. Такая компоновка окажется дешевле, нежели применение двух одинаковых ускорителей.

Подробнее с исследованием NVIDIA можно ознакомиться в ACM Digital Library, но уже сейчас ясно, что в обозримом будущем конвергенция ускорителей перейдёт в дивергенцию, и каждая эволюционная ветвь, благодаря MCM, окажется эффективнее в своей задаче, нежели полностью унифицированный чип.

Постоянный URL: http://servernews.ru/1058052
14.01.2022 [16:35], Владимир Мироненко

AWS запустила HPC-инстансы Hpc6a на базе AMD EPYC Milan

Облачная платформа Amazon Web Services (AWS) объявила об общедоступности EC2-инстансов Hpc6a. Это инстансы нового типа, специально созданные для высокопроизводительных вычислений (HPC) в облаке. Как утверждает AWS, новинки на базе процессоров AMD EPYC 3-го поколения (Milan) обеспечивают до 65 % лучшее соотношение цены и производительности по сравнению с аналогичными HPC-инстансами прошлых поколений.

Hpc6a делают масштабирование HPC-кластеров в AWS ещё более экономичным, позволяя выполнять наиболее ресурсоёмкие рабочие нагрузки, такие как геномика, вычислительная гидродинамика, прогнозирование погоды, молекулярная динамика, вычислительная химия, моделирование финансовых рисков, автоматизированное проектирование и т. д. Используя Hpc6a, клиенты смогут с меньшими затратами решать свои самые большие и сложные академические, научные и бизнес-задачи при оптимальном соотношении цены и качества.

Источник изображения: AMD

Источник изображения: AMD

Инстансы Hpc6a по умолчанию используют Elastic Fabric Adapter (EFA), благодаря чему обеспечивается низкая задержка, низкий джиттер и пропускная способность сети до 100 Гбит/с, что повышает эффективность работы и ускоряет получение результатов для рабочих нагрузок, активно задействующих обмен данными между экземплярами. Заказчикам доступен инструмент AWS ParallelCluster для управления кластерами с Hpc6a и инстансами других типов, что обеспечивает гибкость для запуска различных типов рабочих нагрузок.

Hpc6a имеют до 96 vCPU с частотой до 3,6 ГГц (All-Turbo) и до 384 Гбайт RAM. Для хранения данных предлагаются стандартные EBS-тома, а также Amazon FSx for Lustre. Использование AWS Nitro в Hpc6a обеспечивает высокую производительность, высокую доступность и повышенную безопасность. Hpc6a доступны в виде инстансов по запросу или зарезервированных инстансов, а также в рамках планов Savings. Экземпляры Hpc6a.48xlarge уже доступны в регионе us-east-2 (Огайо, США) по цене $2,88/час и в GovCloud (us-west).

Постоянный URL: http://servernews.ru/1058008
14.01.2022 [15:29], Сергей Карасёв

OnLogic Karbon 800: промышленные компьютеры с Intel Core Alder Lake-S

Компания OnLogic анонсировала компактные встраиваемые компьютеры серии Karbon 800, ориентированные прежде всего на промышленный сектор. Устройства выполнены на аппаратной платформе Intel Core 12-го поколения (вплоть до Core i9) Alder Lake-S. Допускается установка до 64 Гбайт DDR4-3200 и адаптеров Wi-Fi/Bluetooth/4G.

В семейство вошли модификации Karbon 801, Karbon 802, Karbon 803 и Karbon 804. Они заключены в корпус повышенной прочности с ребристой верхней поверхностью, служащей радиатором. Может быть использована полностью пассивная система охлаждения. На фронтальную панель выведены четыре разъёма USB Type-A и два последовательных порта. Работать новинки могут при температурах от -40 до +70 °C.

Источник изображения: OnLogic

Источник изображения: OnLogic

Версия Karbon 801 может комплектоваться NVMe SSD. Для Karbon 802 предусмотрена возможность установки двух накопителей SFF. Данная модель поддерживает технологию расширения ModBay. Вариант Karbon 803 предлагает одно посадочное место для накопителя SFF и слот расширения PCIe 4.0 x16. Наконец, Karbon 804 поддерживает двухслотувую карту PCIe 4.0 x16 и допускает формирование RAID-массива с шесть накопителями SFF.

Постоянный URL: http://servernews.ru/1058021
13.01.2022 [18:50], Владимир Мироненко

GRC и Intel будут совместно работать над иммерсионными СЖО для ЦОД

Разработчик СЖО GRC (Green Revolution Cooling) и Intel заключили соглашение о сотрудничестве с целью внедрения технологии иммерсионного охлаждения в центрах обработки данных. Обе компании будут тестировать с привлечением конечных потребителей решения для погружного охлаждения на предмет безопасности и надёжности, а также вместе оптимизировать производительность оборудования на базе процессоров Xeon.

Кроме того, компании будут проводить вебинары для обучения потребителей работе с такими системами охлаждения, тестировать новые составы охлаждающих жидкостей по мере их выхода на рынок на соответствие стандартам безопасности, совместимости материалов и тепловых характеристик. В то время как воздушное охлаждение по-прежнему преобладает в центрах обработки данных (ЦОД), иммерсионное охлаждение стало применяться в областях, требующих больших вычислительных ресурсов, включая сегмент HPC.

Фото: GRC

Фото: GRC

Мохан Кумар (Mohan Kumar), старший научный сотрудник корпорации Intel, отметил, что сотрудничество с GRC соответствует цели Intel по поддержке передовых технологий, обеспечивающих повышенные эффективность и плотность развёртывания в центрах обработки данных и на периферии. Он заявил, что сотрудничество с GRC позволит Intel предоставить клиентам индивидуальные решения для удовлетворения их потребностей в вычислениях и охлаждении, чтобы обеспечить более безопасную работу ЦОД с точки зрения экологии.

Это не первый опыт работы двух компаний — почти десять лет назад Intel уже тестировала системы GRC в течение года. Ранее Intel заключила аналогичное соглашение о сотрудничестве с другим разработчиком иммерсионных СЖО, компанией Submer.

Постоянный URL: http://servernews.ru/1057927
11.01.2022 [16:02], Сергей Карасёв

NVIDIA купила Bright Computing, разработчика решений для управления НРС-кластерами

Компания NVIDIA сообщила о заключении соглашения по приобретению фирмы Bright Computing, разработчика специализированных программных продуктов для управления кластерами. О сумме сделки ничего не сообщается.

Bright Computing была выделена из состава нидерландской ClusterVision в 2009 году; последняя после банкротства в 2019 году была поглощена Taurus Group. Штаб-квартира Bright Computing базируется в Амстердаме. Основным направлением деятельности компании является разработка инструментов, позволяющих автоматизировать процесс построения и управления Linux-кластерами.

Источник изображения: Bright Computing

Источник изображения: Bright Computing

В число клиентов Bright Computing входят более 700 корпораций и организаций по всему миру. Среди них упоминаются Boeing, Siemens, NASA, Университет Джонса Хопкинса и др. Отмечается, что NVIDIA и Bright сотрудничают уже более десяти лет. Речь идёт об интеграции ПО с аппаратными платформами и другими продуктами NVIDIA.

Поглощение Bright Computing, как ожидается, позволит NVIDIA предложить новые решения в области НРС, которые будут отличаться относительной простотой развёртывания и управления. Эти решения могут применяться в дата-центрах, в составе различных облачных платформ и edge-систем. В рамках сделки вся команда Bright Computing присоединится к NVIDIA.

Постоянный URL: http://servernews.ru/1057752
11.01.2022 [15:23], Сергей Карасёв

Verne Global получит от D9 более $90 млн и удвоит мощность ЦОД

Инвестиционный фонд Digital 9 Infrastructure (D9) из Великобритании сообщил о намерении вложить $93 млн в исландского оператора ЦОД Verne Global. D9, контролируемый Triple Point Investment Management, приобрёл Verne Global осенью прошлого года. Сумма сделки составила £231 млн, или приблизительно $320 млн.

В настоящее время Verne Global оперирует комплексом ЦОД мощностью 24 МВт на территории бывшего объекта НАТО в Кеблавике на полуострове Рейкьянес в юго-западной Исландии. Кроме того, на этапе строительства находится площадка мощностью приблизительно 8 МВт.

Источник изображений: Verne Global

Источник изображений: Verne Global

Как сообщается, инвестиции в размере $93 млн в течение ближайших 12 месяцев будут использованы для расширения мощностей ЦОД. Речь идёт о завершении создания упомянутой площадки на 8,2 МВт, а также о вводе в эксплуатацию дополнительных 12,5 МВт мощностей для удовлетворения спроса со стороны корпоративных клиентов.

Ожидается, что кампус на 8,2 МВт начнёт приносить выручку в III квартале нынешнего года. Работы над вторым проектом планируется завершить в начале 2023 года. После этого суммарная ёмкость ЦОДов в Кеблавике составит около 40 МВт из 100 возможных.

Постоянный URL: http://servernews.ru/1057748
Система Orphus