Материалы по тегу: архитектура

16.06.2017 [15:00], Алексей Степин

В новых процессорах Intel используется mesh-схема соединений

Один из ведущих разработчиков Intel, Ахилеш Кумар (Akhilesh Kumar), ответственный за разработку серверных процессоров Skylake-SP, опубликовал в блоге пост, посвящённый анонсу новой архитектуры внутрипроцессорных соединений, которая придёт на смену предыдущей, реализованной в чипах Core i7 класса HEDT, а также в процессорах Xeon v3 и v4 (Haswell/Broadwell-EP). Новая технология носит название Intel Scalable Processor Platform и главной её целью является конкуренция с технологией AMD Infinity Fabric. Последняя, как известно, служит для связи между модулями в процессорах Ryzen, Threadripper и EPYC. Чтобы понять, почему Intel решила сменить структуру внутрипроцессорных соединений, надо понять, в чём заключается узкое место предыдущей структуры. Здесь надо отметить, что Intel всегда использовала монолитные кристаллы даже в многоядерных процессорах, тогда как AMD в Threadripper и EPYC решила прибегнуть к компоновке типа MCM (Multi-Chip Module) с несколькими кристаллами в едином корпусе. Каждый подход имеет свои достоинства и недостатки, о чём ниже.

Схема внутрипроцессорных соединений в Broadwell-EP. Серым цветом выделены межкольцевые коммутаторы

Схема внутрипроцессорных соединений в Broadwell-EP. Серым цветом выделены межкольцевые коммутаторы

Если в обычных потребительских процессорах проблема пропускной способности внутренних шин стоит не так остро, то в многоядерных решениях она начинает играть существенную роль, ведь для эффективной многопоточной обработки данных все ядра должны быть вовремя «накормлены», иначе они просто будут простаивать впустую в ожидании поступления новой порции данных. До появления Scalable Processor Platform компания Intel использовала три разновидности кристаллов: LCC (Low Core Count, до 10 ядер), MCC (Medium Core Count, до 14 ядер) и HCC (High Core Count, от 16 ядер); это справедливо для Broadwell-EP, в случае с Haswell-EP числа несколько иные, но это не столь важно. На приведённой выше диаграмме хорошо видно, что для соединения отдельных кластеров ядер используются двунаправленные кольцевые шины. В случае с LCC такая шина всего одна, в MCC вторая шина не образует полное кольцо, и, наконец, в HCC работают два полноценных двунаправленных кольца. Друг с другом кольца соединяются посредством буферизированных коммутаторов (серые прямоугольники), что порождает дополнительную задержку в 5 тактов при необходимости передать данные из одного кольца в другое.

В новых решениях Intel используется одноранговая сеть

В новых решениях Intel используется одноранговая сеть...

По мере наращивания количества ядер задержки растут, шины и коммутаторы должны работать на более высокой частоте, чтобы это компенсировать, а это, в свою очередь, приводит к повышению потребляемой процессором мощности и росту уровня тепловыделения. Именно с этой проблемой столкнулась бывшая ATI Technologies в процессе увеличения количества потоковых процессоров в графических чипах Radeon, и именно поэтому в новой архитектуре Skylake (как HEDT, так и Xeon v5) Intel отказалась от кольцевой топологии, перейдя к сетевой (mesh). Впервые сетевая топология внутренних соединений была использована в чипах Knights Landing, и это неудивительно с учётом огромного количества ядер у этих процессоров.

Схема сети для процессоров Knights Landing

Схема сети для процессоров Knights Landing

Новая схема выглядит как двунаправленная решётка, а контроллеры памяти переехали к краям кристалла. Исчезли коммутаторы и сопутствующие им схемы буферизации. Небольшие кольца, впрочем, сохранились — теперь они находятся в пересечениях горизонтальных и вертикальных шин и обеспечивают оптимальное распределение потоков данных. Если верить Intel, то возросла и пропускная способность новых шин. Кроме того, для систем с процессорами Purley будет применён новый внешний интерфейс UPI вместо привычного QPI. В целом, новый дизайн кристалла, разработанный Intel, не просто эффективнее старого, но и позволяет наращивать количество процессорных ядер сравнительно малой кровью.

Но с её топологией в реальном кристалле Skylake-X всё не так просто, как на схеме

...но с её топологией в реальном кристалле Skylake-X всё не так просто, как на схеме

На диаграмме соединения сосредоточены в правой части каждого ядра или функционального блока, однако снимок ядра XCC (eXtreme Core Count) демонстрирует несколько иную топологию: ядра ориентированы зеркально по отношению друг к другу. Это может внести дополнительные задержки при перемещении данных по горизонтали, поскольку расстояние между узлами сети в этом случае неодинаково, но это в любом случае эффективнее старой схемы с двумя кольцами и буферизированными коммутаторами.

Межкристалльные шины AMD Infinity Fabric в процессоре EPYC

Межкристалльные шины AMD Infinity Fabric в процессоре EPYC

Схема, реализованная AMD, выглядит совершенно иначе: каждые два четырёхъядерных блока CCX (CPU Complex) образуют восьмиядерный кристалл, в котором они общаются между собой с помощью 256-битной двунаправленной шины Infinity Fabric. В 32-ядерном процессоре EPYC таких кристаллов четыре, соединяются они аналогичным образом, но шины пролегают в корпусе чипа. Это ведёт к задержкам при обращении одного процессорного кристалла к данным, находящимся в кеше другого кристалла, особенно, расположенного диагонально — данным приходится преодолевать и промежуточный кристалл, поскольку шин всего четыре и Х-образное соединение в решении AMD не используется.

Сборка из двух AMD CCX делит общий контроллер памяти

Сборка из двух AMD CCX делит общий контроллер памяти

Впрочем, этот эффект может компенсировать грамотная программная оптимизация, а что касается наращивания количества ядер, тут AMD в выигрыше: отказ от монолитного многоядерного кристалла позволяет в случае нужды установить в корпусе вместо четырёх восьмиядерных сборок шесть или даже восемь, расплатившись, разумеется, соответствующим ростом латентности и уровня тепловыделения. Intel наверняка использует этот факт в рекламе своей новой технологии, но какой подход покажет себя более жизнеспособным, покажет время.

Постоянный URL: http://servernews.ru/954055
30.03.2017 [06:19], Евгений Лазовский

Архитектура DynamIQ от ARM быстрее справляется с облачными вычислениями и искусственным интеллектом

Разработчик процессорной архитектуры ARM представил технологию DynamIQ для создания многоядерных процессоров, которые смогут лучше справляться с облачными вычислениями, искусственным интеллектом и наиболее современными устройствами. Архитектурой оснастят новые процессоры ARM Cortex-A, которые появятся на рынке в этом году. Сферы применения — автомобили, сети, серверы и «первичные вычислительные устройства».

Новые процессоры смогут более гибко работать с многоядерными процессами, которыми вычислительные устройства должны манипулировать одновременно. Разработчики делают ставку и на «гетерогенные вычисления» — использование в одном компьютере различных типов ядер или процессоров.

DynamIQ позволит использовать архитектуру big.LITTLE, то есть совмещать менее энергоэффективные ядра (LITTLE) и более мощные ядра (big) в одном устройстве. Благодаря такой комбинации обработка процессов происходит более гибко — вне зависимости от задачи.

ARM считает создание DynamIQ самым большим прорывом в сфере микроархитектур с анонса 64-битной вычислительной архитектуры, который состоялся в 2011 году. Компания уверена, что её партнёры за следующие пять лет поставят на рынок 100 миллиардов чипов. За последнее пятилетие они поставили 50 миллиардов чипов.

Новая технология ARM обеспечивает масштабирование до восьми ядер в одном кластере. Благодаря более эффективным технологиям связи масштабирование происходит со значительно меньшей задержкой. Это поможет оптимизировать работу сетей.

Также DynamIQ несёт в себе новые возможности обеспечения безопасности для автомобильной сферы и новые инструкции для искусственного интеллекта. 

Постоянный URL: http://servernews.ru/949418
12.10.2016 [07:56], Александр Будик

Gen-Z: архитектура межсоединений для серверов нового поколения

Целая группа компаний, таких как AMD, ARM, Dell EMC, IBM, Western Digital, Cray, Broadcom, HP Enterprise, Huawei, Micron, Lenovo, Samsung, Seagate, SK hynix и другие, заявили о партнёрстве в рамках консорциума Gen-Z. Совместные усилия будут направлены на создание и коммерциализацию новой технологии межсоединений, которая будет оптимизирована для высокопроизводительных систем нового поколения.

genzconsortium.org

genzconsortium.org

Традиционно считается, что в архитектуре компьютеров оперативная память является быстрой и энергозависимой, тогда как накопитель предлагает много пространства для хранения данных и не требует постоянного питания, но отличается медлительностью. Впрочем, технологии будущего наподобие 3D XPoint могут перевернуть эти представления. И чтобы быть готовым к изменениям, Gen-Z как раз будет заниматься разработкой новой спецификации.

genzconsortium.org

genzconsortium.org

Согласно авторам идеи, пропускная способность памяти в расчёте на одно вычислительное ядро снижается, тогда как удельная ёмкость памяти остаётся неизменной. Количество ядер в современных дата-центрах продолжает расти с огромной скоростью, и канал оперативной памяти зачастую оказывается узким звеном системы. Давление на отрасль оказывает также взрывной рост объёмов данных для обработки, что связано с внедрением концепции Интернета вещей, а также развитием облачных сервисов. Всё начинает упираться в ограниченные возможности подсистемы памяти дата-центров, поэтому необходимы инновации. Специалисты Консорциума уверены, что разработка новой открытой архитектуры для технологии межсоединений следующего поколения является необходимой в сегодняшних условиях. Стоечные серверы требуют высокой пропускной способности и низких задержек на уровне системной памяти.

Разрабатываемый протокол Gen-Z должен работать с существующими операционными системами без внесения в них каких-либо изменений. Это важное условие, которое позволит ускорить принятие новой архитектуры.

Согласно видению специалистов, подсистемы памяти эволюционируют. Если раньше использовалась RAM достаточного для комфортной работы объёма и SSD/HDD большого объёма, то теперь наметился переход к архитектуре с малым количеством RAM, небольшим объёмом SSD/HDD и центральной ролью быстрой памяти типа OPM (on-package memory, память, интегрированная в чип). Протокол Gen-Z будет рассматривать все сообщения в системе, в том числе, атомарные операции, используемые процессором, как операции с памятью.

Среди ключевых особенностей нового протокола стоит выделить:

  • Высокую производительность с поддержкой пропускной способности порядка сотен гигабайт в секунду и низкие задержки менее 100 нс.
  • Поддержку аналитики в режиме реального времени.
  • Поддержку масштабируемых пулов памяти для приложений типа «in-memory».
  • Абстракцию интерфейса памяти в SoC для лёгкой интеграции новых технологий.
  • Защиту соединений между вычислительными узлами.
  • Высокую совместимость благодаря отсутствию необходимости внесения изменений в ОС.

Ядро спецификации, описывающее протокол и архитектуру, будет завершено уже к концу текущего года.

Постоянный URL: http://servernews.ru/940813
09.03.2016 [11:35], Андрей Крупин

Cisco Systems представила архитектуру цифровых сетей

Компания Cisco Systems представила Digital Network Architecture (DNA) — открытую, расширяемую, программно-управляемую архитектуру цифровых сетей.

В основу Cisco Digital Network Architecture положены средства виртуализации сетевых функций, автоматизации, аналитики, управления сетевыми устройствами и облачными сервисами. Решение дополняет предназначенную для центров обработки данных технологию Application Centric Infrastructure (ACI), распространяя основанные на политиках подходы и программные стратегии на всю сетевую инфраструктуру: от кампуса до филиала, от проводной сети до беспроводной, от ядра до периферии.

Ключевой составляющей DNA является платформа APIC-Enterprise Module, включающая различные инструменты автоматизации процессов в сетевой среде. Дополнительно в составе Digital Network Architecture представлены средства быстрого развёртывания сетей Intelligent WAN Automation, система управления и бизнес-аналитики CMX Cloud, а также сетевая операционная система Evolved Cisco IOS XE, предлагающая IT-службам полный программный стек: ПО виртуализации инфраструктуры, виртуализованные сетевые функции (маршрутизация, сетевой экран, WAN Optimization и WLAN Controller, сервисы оркестрации), обеспечивающие виртуализацию сервисов для филиалов.

Cisco DNA будет продаваться по модели ПО Cisco ONE, при этом заказчики смогут выбирать платформу и условия поставки. Дополнительные сведения об архитектуре цифровых сетей опубликованы на сайте cisco.com/solutions/enterprise-networks.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/929645
18.11.2014 [13:15], Александр Будик

IBM внедрит новую суперкомпьютерную архитектуру в 2015 году

Компания IBM планирует внедрить в суперкомпьютеры следующего поколения новую архитектуру, а также оснастить их ещё большим количеством сопроцессоров и ускорителей, что позволит увеличить вычислительную мощь и энергоэффективность. Системы с новой архитектурой выйдут на рынок уже в следующем году.

IBM

IBM

Вице-президент технического подразделения IBM Дэйв Турек (Dave Turek) целью усовершенствований видит ускорение обработки данных на уровнях памяти, хранения данных и ввода/вывода. В существующих моделях супервычислений есть «узкие» места. Много времени и энергии тратится на непрерывное перемещение больших порций данных между процессорами, памятью и накопителями. IBM намерена уменьшить количество таких перемещений данных, что должно обеспечить ускорение обработки данных в три раза по сравнению с используемыми сейчас моделями.

IBM

IBM

Как отмечает Дэйв Турек, когда речь идет о работе с петабайтами и экзабайтами данных, перемещение таких массивов является очень малоэффективным и затратным по времени. IBM является одним из лидеров суперкомпьютерной отрасли, и её системы постоянно занимают высокие места в рейтинге TOP500. Но рост количества данных, которыми нагружаются серверы, превышает рост быстродействия суперкомпьютеров.

Очевидно, с ростом производительности перемещение данных будет «стоить» все больше и больше. Фактически вместе с ростом скорости операций, количество памяти относительно уменьшается, поддаваясь масштабированию намного хуже, чем скорость вычислений. Более того, при приближении к эре экзафлопсов обязательно потребуется менять всю нынешнюю парадигму программирования.

Также Турек считает, что при всём уважении к тестовому бенчмарку LINPACK, этот пакет не обеспечивает адекватных результатов во многих специализированных приложениях. И IBM разрабатывает собственное решение этой проблемы.

 

Постоянный URL: http://servernews.ru/905260
16.04.2014 [18:34], Сергей Карасёв

AMD продемонстрировала первый в мире серверный чип с архитектурой HSA

Компания AMD на мероприятии Red Hat Summit 2014, которое с 14 по 17 апреля проходит в Сан-Франциско (Калифорния, США), провела публичную демонстрацию серверных процессоров Opteron X-Series APU второго поколения с кодовым именем Berlin.

Разработчик подчёркивает, что Berlin станут первыми в мире гибридными серверными чипами, использующими передовую архитектуру Heterogeneous System Architecture (HSA). Данная платформа, в частности, позволяет вычислительным и графическим ядрам иметь полный доступ ко всей системной памяти. Это значительно упрощает разработку приложений и снимает массу узких мест существующих GPGPU-решений. Разработчики ПО смогут задействовать ресурсы встроенного графического блока при высокопараллельных расчётах с обеспечением новых уровней энергетической эффективности.

x86-совместимые процессоры Berlin могут иметь до четырёх ядер Steamroller с поддержкой 64-битных инструкций. Производственный процесс предусматривает применение 28-нанометровых норм.

В ходе демонстрации новых Opteron X-Series APU была показана работа Linux-окружения на основе Fedora — проекта, служащего для тестирования новых технологий, которые в дальнейшем включаются в продукты Red Hat и других производителей.

Предполагается, что серверы на основе процессоров с гетерогенной архитектурой значительно повысят эффективность функционирования центров обработки данных, выполняющих интенсивные расчёты с необходимостью визуализации информации. Это могут быть, например, облачные игровые платформы.

Официальный анонс процессоров Berlin состоится позднее в текущем году. 

Постоянный URL: http://servernews.ru/818735
20.01.2014 [14:05], Александр Будик

IBM представила архитектуру X6 для сверхбыстрых серверов

Компания IBM анонсировала архитектуру X-Architecture шестого поколения для корпоративных серверных систем System x и PureSystems. Как утверждают разработчики, их изобретение позволит повысить производительность и эффективность x86-совместимых решений для аналитических и облачных приложений.

ibm.com

ibm.com

Для приложений, требовательных к подсистеме оперативной памяти, архитектура X6 обеспечивает увеличение в три раза максимального объёма ОЗУ по сравнению с конкурентами и x86-системами IBM этого класса. Кроме того, впервые в отрасли предлагается интегрированное высокоскоростное хранилище флеш-памяти eXFlash, которое подключено к DIMM-каналам и характеризуется максимальной ёмкостью 12,8 Тбайт. Разработчики отмечают существенное снижение задержек при операциях с базами данных. Во многих случаях владельцам таких систем не понадобятся дополнительные внешние модули SAN/NAS.

ibm.com

ibm.com

Модульный дизайн X6 позволяет обеспечить поддержку нескольких поколений процессоров, что добавляет гибкости и позволяет избежать лишних расходов. Также IBM отмечает высокую стабильность своих систем и возможность легкого обновления. Среди новых систем с поддержкой архитектуры X6 – четырёхпроцессорный сервер System x3859 X6, восьмипроцессорный сервер System x3950 X6, система IBM Flex System x880, файл-сервер System x3650 M4 BD.

ibm.com

ibm.com

Системы с четырьмя процессорами поддерживают до 6 Тбайт ОЗУ, восьмипроцессорные серверы включают, соответственно, до 12 Тбайт памяти. Подсистема памяти eXFlash характеризуется задержкой при записи 5-10 мкс. Для сравнения, PCI Express-накопители от Fusion IO, Micron, Virident отличаются задержкой 15-19 мкс, а для SSD Intel S3500 и S3700 это значение достигает 65 мкс.

Постоянный URL: http://servernews.ru/795937
20.11.2013 [12:00], Константин Ходаковский

Новая процессорная архитектура Micron может перевернуть серверный рынок

На конференции Supercomputing 2013 в США Micron Technology объявила о разработке новой вычислительной архитектуры Automata, которая полагается на принципы параллелизма памяти DRAM и призвана улучшить компьютерные возможности в таких областях, как биоинформатика, анализ видео и аудио, сетевая безопасность — задачи, в которых традиционные процессорные архитектуры оказываются малоэффективными при обработке больших объёмов сложных неструктурированных данных.

Компания утверждает, что новая архитектура способна предоставить недосягаемый ранее уровень параллелизма. В отличие от традиционных CPU, Micron Automata объединяет от десятков тысяч до миллионов вычислительных элементов. «Micron сконцентрирована на разработке новаторских и продвинутых кремниевых чипов, которые помогут нашим клиентам решать наиболее сложные вычислительные задачи», — отметил вице-президент Micron по решениям DRAM Брайан Шерли (Brian Shirley).

Процессор Micron Automata, выполненный в виде двухстороннего модуля памяти DRAM

Automata является узкоспециализированным сопроцессором, наиболее эффективным в исполнении таких алгоритмов, как «поиск на графе», используемых в интернет-поиске и управлении большими данными (Big data). Компании Google, Microsoft и Amazon вместе используют в своих вычислительных центрах порядка миллиона серверов на процессорах Intel для создания того же аппаратного окружения, на которое нацелено новое решение от Micron. По эффективности оно сопоставимо с массивом традиционных серверов Xeon стоимостью $20 000 при решении NP-сложных задач (комбинаторных с нелинейной полиномиальной оценкой числа итераций). При усложнении задач время вычислений на Xeon растёт в геометрической прогрессии, а на Automata — арифметической.

Трудно сказать, насколько серьёзная угроза исходит от разработки Micron для корпораций IBM и Intel и когда она реализуется в полной мере, но её определённо придётся учитывать. Intel терпит неудачи на рынке мобильной электроники и телевизоров, компании NVIDIA, AMD и ARM (консорциум Open Computing Architecture) стремятся составить конкуренцию и на серверном рынке, теперь к ним присоединилась Micron. Серверный рынок обеспечивает Intel устойчивую прибыль, и если заказы на сотни тысяч серверных процессоров продолжат переходить другим участникам рынка, это может иметь катастрофические последствия для лидера процессорной индустрии. Но справедливости ради следует сказать, что и сама Intel продолжает работать в области высокопараллельных вычислений и в конце 2014 года представит 14-нм сопроцессоры Knights Landing, которые придут на смену Knights Corner. Хотя это несколько иной тип вычислений, чем предлагает Micron.

Micron тесно сотрудничает с партнёрами по экосистеме и научными учреждениями для привлечения интереса к новой технологии. Например, по отзыву исследователей Технологического института Джорджии, архитектура Automata предлагает новые пути решения проблем в биологии, существенно отличающиеся от всех других технологий ускорения вычислений, и открывает возможность решать намного более значительные NP-трудные задачи. Micron Automata объединяет преимущества дизайна недетерминированного автомата и чипов памяти для достижения высокоскоростного подбора регулярных выражений, — отмечают исследователи Университета Миссури, — и особенно эффективно работает с большими массивами сложных регулярных выражений.

Согласно достигнутой договорённости между Micron и Университетом Виргинии в последнем будет открыт Центр вычислений Automata. Набор инструментов разработки и средства симуляции для Automata будут выпущены в 2014 году.

Постоянный URL: http://servernews.ru/780285
17.04.2012 [00:35], Георгий Орлов

Cisco и NetApp делают ставку на архитектуру FlexPod

Cisco и NetApp объявили о планах по продажам решений, построенных на базе новой облачной архитектуры FlexPod, разработанной для небольших нагрузок. Объявленный в 2010 году, механизм FlexPod представляет собой сертифицированную среду вычислений, первоначально настроенную для групп пользователей в размере от 1000 до 2000 человек. Новый FlexPod начального уровня, как ожидается, будет доступен в мае и рассчитан на нагрузки от 500 до 1000 пользователей. Оригинальный FlexPod состоит из массива NetApp FAS3210, платформы блейд-серверов Cicso Unified Computing System (UCS), коммутаторов Nexus и облачной платформы VMware vSphere с консолью управления vCenter. Кроме того, для всех архитектур FlexPod проверены несколько новых инструментов управления компаний CA, Cloupia и Gale Technologies.

Cisco

FlexPod начального уровня объединяет массив хранения данных NetApp FAS2240 и Cisco UCS C-серии коммутаторов Nexus 5000, Nexus 2232 Fabric Extender и Cisco UCS 6200 Series Fabric Interconnects. Fabric Interconnects обеспечивает связь с блейд-серверами Cisco UCS B-Series Blades на шасси Cisco UCS 5100 Series Blade Server Chassis. Cisco и NetApp не раскрывают цены на решения FlexPod, утверждая, что они меняется в зависимости от дизайна. "Мы искали три вещи: хранилище данных, скорость и виртуализацию, - сказал в своём заявлении Омер Мушавар (Omer Mushahwar), старший научный сотрудник городской архитектурной фирмы Torti Gallas and Partners. - Решение FlexPod помогло нам предотвратить потерю $45000 в день из-за перебоев электроэнергии, оптимизировать управление IT, повысить уровень обслуживания и обеспечить возможности для роста компании".

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/595714
08.12.2011 [13:08], Андрей Крупин

Cisco анонсировала комплексную архитектуру CloudVerse

Cisco представила архитектуру CloudVerse, включающую в себя основные элементы, предназначенные для развертывания общедоступных, частных и гибридных облаков, а также инструментарий для управления ими.

В состав анонсированного компанией комплексного решения включены три основных компонента: Unified Data Center (унифицированный центр обработки данных), Cloud Intelligent Network (облачная интеллектуальная сеть) и Cloud Applications and Services (облачные приложения и услуги).

Первый компонент - Unified Data Center - повышает экономичность облачной инфраструктуры с помощью матричной платформы, автоматизирующей реализацию модели "как услуга" (as-a-service) в физической и виртуальной среде. Решение достаточно просто масштабируется по мере роста требований бизнеса и позволяет заказчикам перебрасывать ресурсы в пределах ЦОДа и между ЦОДами с помощью системы унифицированных вычислений Cisco (Unified Computing System, UCS) и коммутационной матрицы (Unified Fabric).

 

Cisco анонсировала комплексную архитектуру CloudVerse

 

Второй элемент - Cloud Intelligent Network - поддерживает единый и защищенный набор пользовательских услуг, включающих новые функции "межоблачных соединений" (Cloud-to-Cloud Connect), реализуемые посредством системы сетевого позиционирования Network Positioning System на маршрутизаторах Cisco ASR 1000 и 9000. В будущем ожидается расширение возможностей облачной интеллектуальной сети и включение поддержки динамической идентификации ресурсов и их оптимального распределения между ЦОД и облаками. Наконец, третий компонент Cloud Applications and Services поддерживает модель доставки "как услуга" для облачных приложений Cisco и других компаний, а также предоставляет клиентам инструментарий для совместной работы.

Согласно прогнозам Cisco, в 2014 году более половины вычислений в центрах обработки данных будет выполняться через облако, а к 2015 году мировой объем cloud-трафика вырастет более чем в 12 раз до 1,6 зеттабайт в год, что эквивалентно непрерывной передаче видео корпоративного качества каждому жителю нашей планеты в течение четырех дней.

По словам экспертов компании, в настоящее время большинство облачных технологий работает изолированно друг от друга, что не позволяет организовать эффективное управление ими. В Cisco убеждены, что интеграция трех перечисленных базовых облачных компонентов в рамках архитектуры CloudVerse позволит обеспечить качество корпоративного класса для всех услуг, доставляемых внутри облака, между облаками и между облаком и конечным пользователем.

Дополнительные сведения о проекте представлены по ссылке cisco.com/web/solutions/trends/cloud.

Источник:

Постоянный URL: http://servernews.ru/595275
Система Orphus