Материалы по тегу: периферийные вычисления

25.02.2021 [17:04], Алексей Степин

IBM разработала прототип 7-нм высокоэффективного ИИ-сопроцессора

В популярных нынче вычислительных ядрах, процессорах и SoC, нацеленных на рынок машинного обучения, как правило, используются режимы вычисления с пониженной разрядностью, такие, как FP16 или даже INT8.

Но для реализации обучения и инференс-систем на периферии даже восьмибитная точность может быть избыточной, а вот экономичность остаётся ключевым фактором. Компания IBM раскрыла некоторые детали относительно своего нового ИИ-чипа, предназначенного специально для периферийных систем.

В последние годы наблюдается развитие так называемых периферийных вычислений, в которых первичная обработка потока «сырых» данных выполняется непосредственно в местах их получения, либо наиболее близко к таким местам. В отличие от классической обработки в ЦОД, на периферии такие ресурсы как габариты и энергоснабжение ограничены, вот почему разработчики стараются сделать такие чипы и системы как можно более экономичными и компактными.

Среди них компания IBM, которая раскрыла информацию о новом прототипе ИИ-сопроцессора, предназначенном специально для систем машинного обучения и инференс-систем периферийного типа. Как сообщают источники, главным преимуществом новинки является способность выполнять вычисления с ещё менее высокой точностью, чем принято в машинном обучении, однако достаточной для ряда задач.

Новая разработка IBM интересна тем, что обеспечивает сопоставимую точность обучения при использовании менее точных форматов вычислений

Новая разработка IBM интересна тем, что обеспечивает сопоставимую точность обучения при использовании менее точных форматов вычислений

Изначально в машинном обучении применялись классические вычислительные ядра с точностью вычислений как минимум FP32, однако для ряда случаев такая точность избыточна, а энергопотребление далеко от оптимального. В этом смысле за прошедшие пять лет именно IBM удалось добиться существенных успехов. Ещё в 2019 году компания показала возможность использования 8-битной точности с плавающей запятой для обучения, а для инференса оказалось достаточно даже 4 бит.

На конференции NeurIPS 2020 компания отчиталась о дальнейших успехах в этой области: новый периферийный ИИ-сопроцессор, спроектированный с использованием 7-нм технологических норм, обеспечивает достаточно надёжные результаты при обучении в 4-битном режиме, а для инференс-задач он использует и вовсе двухбитный режим. Точность при этом достаточно высока, хотя в некоторых случаях и понижается на несколько процентов, а вот производительность оказывается почти в четыре раза выше, нежели при использовании 8-битного режима. Естественно, возможны и вычисления смешанной точности.

За счёт сочетания пониженной точности и тонкого техпроцесса обеспечивается высокая энергоэффективность, и IBM не без оснований считает, что такие процессоры займут место классических там, где их возможностей достаточно, например, в машинном зрении и системах распознавания речи. Кроме того, IBM разработала новый алгоритм сжатия ScaleCom, позволяющий очень эффективно сжимать именно данные машинного обучения. Говорится о возможности сжатия в 100, а в некоторых случаях и в 400 раз. Подробности можно узнать на сайте компании.

Постоянный URL: http://servernews.ru/1033524
23.02.2021 [17:09], Владимир Мироненко

Intel и Google Cloud будут совместно продвигать облачные и периферийные 5G-решения

Intel и Google Cloud объявили о заключении соглашения о сотрудничестве в области разработки эталонных облачных архитектур для телекоммуникационных компаний и интегрированных решений для поставщиков услуг связи с целью ускорения развертывания сетей 5G.

Партнёрство двух компаний охватывает три основных направления:

  • Расширение возможностей провайдеров услуг связи по развёртыванию их виртуализированной сети радиодоступа (vRAN) и решений открытой ORAN с инфраструктурой и оборудованием следующего поколения.
  • Запуск новых лабораторных сред, чтобы помочь поставщикам услуг связи внедрять инновации в облачных технологиях 5G.
  • Упрощение доставки бизнес-приложений на периферию сети для поставщиков услуг связи.

Объявленное сотрудничество знаменует собой ещё один важный шаг Intel на пути к преобразованию сети 5G с помощью программное определяемой, гибкой и масштабируемой инфраструктуры. Эталонные облачные архитектуры на базе FlexRAN, OpenNESS, DPDK, Xeon и Anthos для телекоммуникационных компаний и интегрированные решения от Intel и Google помогут поставщикам услуг связи ускорить масштабируемое сетевое и периферийное развёртывание по мере того, как они реализуют мультиоблачные архитектуры.

Это критически важно для реализации всего потенциала технологии 5G, периферийных устройств и искусственного интеллекта в целом ряде отраслей, включая розничную торговлю, производство и здравоохранение. «Следующая волна трансформации сетей вызвана 5G и способствует быстрому переходу к облачным технологиям. По мере того, как поставщики услуг связи создают свою облачную инфраструктуру, наши усилия с Google и более широкая экосистема помогут им предоставлять гибкие, масштабируемые решения для новых 5G- и периферийных сценариев использования», — заявил Дэн Родригес (Dan Rodriguez), корпоративный вице-президент и генеральный менеджер Intel Network Platforms Group.

Постоянный URL: http://servernews.ru/1033178
12.02.2021 [00:58], Владимир Мироненко

Oracle RED — компактное мобильное облако с защитой

Oracle объявила о пополнении своего облачного портфолио платформой Oracle Roving Edge Infrastructure, которая позволяет создавать безопасные масштабируемые облачные сервисы даже в самых удалённых регионах мира. Новое решение выводит основные инфраструктурные услуги на периферию с помощью Roving Edge Devices (RED) — надёжных, портативных, серверных узлов.

RED позволяет организациям использовать преимущества Oracle Cloud для создания и запуска периферийных центров обработки данных в удалённых или труднодоступных местах. Как утверждает компания, с помощью RED предприятия и правительственные учреждения смогут использовать свои приложения и данные в Oracle Cloud Infrastructure (OCI) и безопасно развёртывать их на периферии — от военных самолётов до нефтяных танкеров и полярных станций.

RED работают даже при периодических подключениях к интернету или когда вовсе отключены от него. Сценарии использования включают рабочие нагрузки машинного обучения, хранилища данных с интенсивными запросами, а также приём и обработку данных датчиков Интернета вещей. Клиенты смогут синхронизировать и выгружать данные в облако, когда подключение доступно. Новые периферийные устройства заполнят брешь в портфеле продуктов Oracle для гибридного облака.

Узел Oracle RED включает 2U-сервер, который имеет 40 OCPU (т.е. 40 процессорных ядер), ускоритель NVIDIA T4, 512 Гбайт ОЗУ, NVMe-хранилище ёмкостью 61 Тбайт, по два порта 100 GbE (QSFP28) и 10GbE (RJ45), а также TPM-модуль. Сервер упакован в защитный кейс. Система соответствует стандарту MIL-STD-810, то есть, к примеру, её можно уронить 26 раз с высоты 1,2 м без потери работоспособности.

Устройства Oracle RED могут быть объединены в группы от 5 до 15 узлов в одном кластере. Стоимость аренды начинается с отметки в $160 за узел в день, а минимальный срок аренды составляет 30 дней. Устройства Oracle RED уже доступны для правительственных учреждений США, бизнес-пользователи смогут получить их ближе к лету.

Похожие продукты уже давно есть у конкурентов. AWS предлагает аналогичное по формату решение Snowball Edge, компактные Snowcone, а с недавних пор 1U/2U-узлы Outposts на базе Graviton2 и Intel Xeon. Microsoft имеет серию продуктов Azure Stack Edge, среди которых также есть как компактные, так и защищённые решения.

Постоянный URL: http://servernews.ru/1032484
11.02.2021 [16:41], Алексей Степин

Космический суперкомпьютер HPE Spaceborne-2 доставят на МКС

Космос привлекает не только учёных, но и компании, работающие в области информационных технологий. Сама идея размещения вычислительных мощностей в космическом пространстве имеет ряд уникальных преимуществ. Одним из пионеров в этой област по праву можно считать HPE, ещё в 2017 году отправившую на МКС систему HPE Spaceborne. Сегодня HPE объявляет о переходе от тестовой фазы к коммерческой и представляет второе поколение платформы, Spaceborne-2.

Как правило, космическая электроника имеет ряд специфических особенностей, связанных с условиями функционирования. Во-первых, она должна быть устойчива к повышенным уровням радиации, а во-вторых, потреблять как можно меньше энергии. Стоит такая электроника очень дорого, а вычислительными мощностями не блистает, поэтому решение HPE об адаптации классических вычислительных платформ к условиям, царящим на МКС, выглядит вполне логично. К тому же, на МКС постоянно проводятся научные эксперименты, которым лишние терафлопсы отнюдь не помешали бы.

HPE Spaceborne-2

HPE Spaceborne-2

Первый вариант Spaceborne уже превосходил по производительности всё, когда-либо побывавшее на орбите. Этот космический суперкомпьютер состоял из двух серверов HPE Apollo 40, объединённых сетью InfiniBand со скоростью 56 Гбит/с, но что важнее, каждый вычислительный узел содержал по четыре ускорителя NVIDIA Tesla P100. Это позволило довести мощность Spaceborne до 1 Тфлопс — скромно по наземным меркам, но рекорд для космоса.

Первое поколение HPE Spaceborne не использовалось в научных целях или для управления подсистемами МКС, его задачей было доказать возможность нормального функционирования серверного оборудования в условиях космической станции. Эксперимент завершился успешно, и сегодня HPE готова представить новое поколение «космических суперкомпьютеров» — Spaceborne-2.

Его основой станет конвергентная платформа для периферийных вычислений HPE Edgeline EL4000, а в качестве основных вычислительных узлов будут применены серверы HPE ProLiant DL360 последнего поколения с двумя процессорами Intel Xeon Cascade Lake и ускорителями NVIDIA T4. Ожидается, что по производительности Spaceborne-2, как минимум, вдвое превзойдёт своего предшественника, но что более важно — это уже не эксперимент и новый космический суперкомпьютер будет приносить реальную пользу.

Стоек с EL4000 и DL360 будет две, и обе будут следить за состоянием и себя, и соседа. Все данные дублируются между стойками, а SSD будут программно и аппаратно объединены в RAID-массивы. Несмотря на то, что SSD менее устойчивы к космической радиации (у Spaceborne-1 из 20 дисков в процессе эксплуатации «умерло» 9), они имеют преимущество в скорости работы. К тому же некоторые запасные компоненты серверов будут в наличии на самой станции, чтобы их можно было быстро заменить.

Для общения между собой серверы будут использовать 10GbE-сеть. Питание систем будет осуществляться от двух независимых линий, которые подключены к солнечным батареям и аккумуляторам. Предусмотрено ступенчатое динамическое регулирование уровня энергопотребления. Охлаждение у новых систем гибридное — теплообменник в стойке напрямую подключается к водному контуру охлаждения МКС.

HPE Edgeline EL4000: слева видны частично выдвинутые вычислительные узлы

HPE Edgeline EL4000: слева видны частично выдвинутые вычислительные узлы

МКС — станция немолодая, первые модули были выведены на орбиту ещё в 1998 году, но всё это время она постоянно модернизировалась с учётом новых научных потребностей. За это время, как мы знаем, вычислительная техника успела сделать огромный скачок вперёд, но до нынешних пор её возможности были малодоступны учёным, работающим на МКС и нуждающимся во всё более серьёзных вычислительных мощностях. Станция обросла многочисленными приборами и датчиками, объёмы получаемых данных возросли, но даже для первичной обработки их всё равно приходилось передавать на Землю, что негативно сказывалось на времени проведения исследований.

Появление Spaceborne-2 позволит решить эту проблему: с мощностью свыше 2 Тфлопс можно будет осуществлять, как минимум, первичную обработку данных в кратчайшие сроки, а в некоторых случаях этих мощностей хватит и для проведения исследований без задействования наземных вычислительных мощностей. Среди названных HPE сценариев использования — отслеживание наземного трафика из космоса с целью выявления его тенденций, оценка загрязнений атмосферы Земли, а также отслеживание воздушного и космического трафика, также в реальном времени.

Немаловажное участие Spaceborne-2 примет и в обеспечении здоровья астронавтов, работающих на станции: мощностей новой платформы хватит на постоянное отслеживание показателей их здоровья, включая сложные — рентгеновские снимки и сонограммы. Это позволит ставить диагноз в кратчайшие сроки и, тем самым, минимизировать ущерб от возможного заболевания, а может быть, и спасти жизнь заболевшего астронавта.

HPE ProLiant DL360 (10-ое поколение)

HPE ProLiant DL360 (10-ое поколение)

Новый «космический суперкомпьютер» HPE будет способен работать не только в одиночку, но и в качестве периферийной платформы — Microsoft Azure Space обеспечит двухстороннюю связь Spaceborne-2 с наземными вычислительными комплексами, что позволит использовать её учёным по всему миру. Среди названных Microsoft Research исследований фигурирует моделирование и предсказание пылевых штормов на Земле, что поможет лучше понять аналогичные процессы на Марсе, оценка затрат воды при выращивании растений в условиях невесомости, а также исследование грозовых паттернов, приводящих к масштабным лесным пожарам.

Но МКС пока у человечества одна, и потребности в космических вычислительных мощностях явно превосходят её грузовые и пассажирские возможности. HPE разрабатывает платформу SatFrame, которая может быть использована на необитаемых спутниках — запуск такого спутника будет существенно дешевле пилотируемого полёта на МКС, а значит, позволить себе космический периферийный вычислительный микро-ЦОД сможет большее количество компаний и научных организаций.

В настоящее время срок запуска Spaceborne-2 уже назначен на 20 февраля. Если всё пойдёт по плану, то новый «космический суперкомпьютер» на МКС доставит 15-ая грузовая экспедиция Northrop Grumman. За доставку отвечает корабль Cygnus «SS. Katherine Johnson». Предполагается, что эксплуатация Spaceborne-2 продлится минимум 2-3 года. Уже открыт приём заявок для проведения экспериментов на новой космической вычислительной платформе. Среднее время ожидания для запуска задач составит 1-2 недели.

Постоянный URL: http://servernews.ru/1032436
08.02.2021 [15:59], Сергей Карасёв

Промышленный компьютер Vecow MIG-1000 допускает установку двухслотового ускорителя

Новинка подходит для применения в составе самоуправляемых транспортных средств, медицинского оборудования, а также систем Интернета вещей со средствами искусственного интеллекта и периферийных вычислений.

Устройство заключено в корпус с габаритами 162,6 × 203,6 × 385,0 мм. Задействован процессор Ryzen Embedded V1807B с четырьмя вычислительными ядрами и графическим ускорителем Radeon Vega 11.

Любопытно, что предусмотрена возможность установки дискретной видеокарты с интерфейсом PCIe x16 в двухслотовом исполнении: может быть применён адаптер AMD или NVIDIA для ускорения выполнения операций, связанных с искусственным интеллектом.

Система может нести на борту до 64 Гбайт оперативной памяти DDR4-3200 в виде двух модулей SO-DIMM. Есть порт SATA 3.0 и коннектор M.2 (PCIe x4) для подключения накопителей.

Устройство наделено двумя сетевыми портами Gigabit Ethernet. Предусмотрены по два разъёма USB 3.0 и USB 2.0, два последовательных порта, четыре интерфейса DisplayPort, а также набор аудиогнёзд.

Для питания используется внешний источник 9–55 В мощностью до 750 Вт. Компьютер рассчитан на работу при температуре от 0°C до 60°C и отн. влажности 5–95%.

Постоянный URL: http://servernews.ru/1032134
02.02.2021 [00:26], Владимир Мироненко

Гиперскейлеры увеличивают долю рынка за счёт операторов связи и провайдеров облачных услуг второго уровня

Гиперскейлеры неуклонно увеличивают долю рынка облачных услуг последние годы. По данным аналитической компании Omdia, в 2019 году на гипермасштабируемые облачные платформы приходилось 35 % всех доходов от облачных сервисов с удалённым доступом (off-premises), что на 11 процентных пунктов больше, чем в 2016 году.

Между тем, поставщики облачных услуг второго уровня, на долю которых в 2016 году приходилось почти 60 % рынка, в 2019 году занимали уже 50 % рынка. А телекоммуникационные компании, третья по значимости категория поставщиков облачных услуг, сократили долю рынка до 15 % с 18 % в 2016 году.

Omdia предполагает, что выручка всего рынка облачных услуг выросла в 2020 году на 29 % в годовом исчислении и будет иметь среднегодовой темп роста (CAGR) в размере 16 % в течение пяти лет в период с 2019 по 2024 год. Гиперскейлеры, несомненно, будут лидировать с точки зрения роста доходов в этот период, указал главный аналитик Omdia Деван Адамс (Devan Adams).

Продолжая конкурировать друг с другом за долю на рынке облачных вычислений, гиперскейлеры и телекоммуникационные компании налаживают партнёрские отношения в сфере 5G и развития периферии. AWS, Microsoft Azure, Google Cloud, IBM, AT&T, Telefónica, Orange и Verizon установили стратегические партнёрские отношения для удовлетворения растущих потребностей клиентов на периферии:

  • AWS и Verizon объединились для предоставления мобильных периферийных вычислений (MEC) 5G в США.
  • Google Cloud в партнёрстве с Telefónica предлагает MEC в Испании.
  • Google Cloud и Orange сотрудничали в сфере облачных услуг, периферийных вычислений и кибербезопасности в Европе.
  • IBM Cloud работала с AT&T, чтобы обеспечить управление приложениями в гибридных облачных средах.
  • Microsoft запустила сервис Azure Space, который позволит различным компаниям использовать космическую связь.

Omdia ожидает, что с 2023 года начнётся этап развития периферийных вычислений, в течение которого все гиперскейлеры, большинство телекоммуникационных компаний и облачные провайдеры второго уровня 2 будут ускорять запуск пограничных сервисов по мере роста расходов клиентов на облако. Исследовательская организация определяет «периферию» как локации с максимальным временем прохождения сигнала от сети до устройства конечного пользователя за 20 мс.

На этом этапе разработчики также создадут больше приложений с открытым исходным кодом, предназначенных для использования в периферийных ЦОД.

Постоянный URL: http://servernews.ru/1031607
26.01.2021 [18:40], Сергей Карасёв

Axis: в 2021 году ожидается развитие горизонтальной интеграции между IT-средами

Компания Axis Communications определила шесть тенденций, которые во многом будут влиять на развитие мирового рынка информационных технологий (IT) в текущем году. Отрасль продолжит трансформироваться под влиянием пандемии, спровоцировавшей изменений многих устоявшихся бизнес-моделей.

Прежде всего отмечается, что в 2021-м начнётся быстрое развитие горизонтальной интеграции между IT-средами. В последние годы приложения и сервисы в основном разрабатывались для конкретных сред — серверных, облачных или периферийных. Теперь же начнут появляться умные решения, использующие возможности всех перечисленных областей. «Это увеличит производительность и эффективность технологии, а также позволит пользователям получать доступ к данным из любой точки мира и в любое время», — говорят авторы отчёта.

Ещё одним трендом станет усиление систем киберзащиты. В условиях постоянно эволюционирующих угроз специалистам придётся придумать новые способы проверки контента, устройств и приложений, чтобы не потерять доверие пользователей. В частности, ускорится переход к так называемым сетям с нулевым доверием, в которых профиль безопасности для каждого устройства и приложения оценивается отдельно.

Третьим направлением называются вопросы, связанные с доверием пользователей по отношению к различным IT-платформам и сервисам. Компаниям придётся становиться более «прозрачными» в плане раскрытия сведений о хранении, обработке и защите пользовательских данных. Кроме того, продолжится развитие средств искусственного интеллекта и машинного обучения. Эти технологии открывают колоссальные возможности в самых разных сферах.

Пятый тренд — бесконтактные технологии. Это, в частности, решения для контроля доступа, подсчёта посетителей и пр. Внедрение таких решений продолжится в связи с пандемией. Наконец, говорится, что в 2021 году не на последнем месте окажется тема экологической стабильности. Материалы, используемые для производства, и их долговечность — вот два главных вопроса, над которыми предстоит задуматься бизнесу. В то же время срок службы продукции станет решающим фактором принятия решений для покупателей.

Постоянный URL: http://servernews.ru/1031062
18.01.2021 [23:14], Владимир Мироненко

Новая IoT-платформа Konica Minolta FORXAI может распознавать фото и видео с помощью ИИ

Konica Minolta запустила платформу обработки изображений FORXAI, созданную на базе интернета вещей и искусственного интеллекта, а также запатентованных компанией технологий, объединяющих инновации в сфере обработки изображений, оптики, работы с материалами и микрообработки.

Новая платформа обеспечивает обработку и распознавание изображений в режиме реального времени. Компания сообщила, что при её создании использовала исследования в области анализа поведения людей и диагностики. С помощью FORXAI можно проводить удалённый мониторинг: собирать и анализировать данные, рассчитывать риски и делать прогнозы, визуализируя результаты в удобной форме.

Обработка «захваченного» изображения и видео проходит в режиме реального времени при помощи периферийных вычислений на основе ИИ. Их затем дополняют облачные вычисления, которые тоже могут использовать ИИ. Технологии искусственного интеллекта и интернета вещей предоставляют более широкий спектр функций для сбора данных, управления удалёнными устройствами, обновления алгоритмов, ускорения обработки изображений.

Платформу можно настраивать с учётом с потребностей заказчика, благодаря чему её можно использовать в самых разных сферах бизнеса. В частности, FORXAI уже используется на одной из японских ферм для определения темпов роста растений, а также необходимости их обработки, что снижает нагрузку на сотрудников.

Кроме того, платформа может использоваться в сфере обеспечения безопасности. К примеру, в Колорадском университете FORXAI используется для визуализации опасных газов, невидимых для человеческого глаза. Также её можно применять для бесконтактного измерения, мониторинга и визуализации температуры тела.

Постоянный URL: http://servernews.ru/1030379
10.01.2021 [13:47], Владимир Мироненко

Приобретение Volterra поможет F5 Networks создать открытую платформу Edge 2.0 для периферийных вычислений

Компания F5 Networks объявила о приобретении стартапа в области облачных вычислений Volterra Inc. Стоимость сделки составляет $500 млн, включая первоначальный платёж в размере $440 млн и выплату $60 млн в дальнейшем. С учётом этой сделки расходы F5 Networks на приобретения компаний за последние два года превысили $2 млрд. В марте 2019 года она объявила о покупке за $670 млн основанной россиянами компании Nginx, и завершила в январе этого года покупку Shape Security за $1 млрд.

Компания Volterra, базирующаяся в Санта-Кларе (Калифорния), предлагает платформу для периферийных вычислений в нескольких облаках, в которой обработка информации происходит вблизи датчиков и других устройств, генерирующих данные, для уменьшения задержки. Эта компания с персоналом в количестве 125 человек, основанная в 2017 году, вышла из скрытого режима (Stealth mode — начальный период становления, когда идея продукта компании публично не раскрывается) в ноябре 2019 года.

Busakorn Pongparnit/Getty Images

Busakorn Pongparnit/Getty Images

Volterra привлекла $50 млн финансирования в качестве независимого стартапа от ряда инвесторов, включая Khosla Ventures, венчурного подразделения Microsoft M12, Samsung NEXT Ventures и ITOCHU Technology Ventures. F5 заявила о планах использовать технологию Volterra в качестве основы для разработки собственной периферийной платформы для крупных компаний и поставщиков услуг.

«Настоящая сила этой комбинации заключается в том, как она трансформирует нашу конкурентную позицию», — сказал гендиректор F5 Networks Франсуа Локо-Дону (François Locoh-Donou) во время телефонной конференции с аналитиками и инвесторами, пообещав, что компании будут работать вместе, чтобы создать платформу Edge 2.0. Это будет готовая периферийная платформа, ориентированная на безопасность приложений для крупномасштабных развёртываниях.

Ожидается, что открытая платформа Edge 2.0 позволит ИТ-организациям развёртывать приложения на периферийных вычислительных платформах без привязки к определённой сети доставки контента (CDN).

В основе сервиса Volterra лежит VoltStack, дистрибутив Kubernetes, курируемый и управляемый Volterra. Разработчики взаимодействуют с VoltStack на периферии через API Kubernetes. Затем эти экземпляры Kubernetes интегрируются с помощью VoltMesh, сервисной сети Volterra на базе SDN Contrail с открытым исходным кодом, известного как Tungsten Fabric.

Постоянный URL: http://servernews.ru/1029636
06.01.2021 [14:51], Владимир Мироненко

Развёртывание 5G повлечёт за собой появление множества небольших ЦОД на периферии

В настоящее время практически с нуля строится инфраструктура 5G, которая обеспечит возможность использования различных инновационных приложений с высокими требованиями к производительности с точки зрения скорости, ёмкости, задержки и надёжности. Ожидается, что огромное количество подключённых устройств 5G будет генерировать большие объёмы трафика данных — аналитическая фирма IDC прогнозирует поступление 90 зеттабайт данных только с устройств Интернета вещей (IoT) к 2025 году. Но не всю эту информацию нужно хранить и обрабатывать в централизованных ЦОД.

Фактически большая часть данных в конечном итоге будет обрабатываться на объектах, расположенных на границе сети. Это может помочь снизить среднюю задержку примерно до 10 миллисекунд на начальном этапе и даже ниже 1 мс — показателя, установленного GSM Alliance (GSMA) для более поздних реализаций 5G.

Наличие локализованных ресурсов хранения и обработки означает, что информация может быть отфильтрована, проанализирована и возвращена конечным пользователям быстрее, без необходимости совершать обратный путь через серию коммутаторов, маршрутизаторов, базовых станций, точек присутствия и телекоммуникационных магистралей до удаленного объекта, что может отрицательно сказаться на производительности.

То есть развёртывание 5G предвещает появление большего числа малых ЦОД, расположенных в непосредственной близости от места генерирования данных, например, ЦОД микро- или контейнерного типа, а в некоторых случаях и систем, встроенных прямо в телекоммуникационное оборудование (базовые станции, антенные вышки, микросайты, концентраторы доступа и т. д.) и даже в сами конечные точки (ПК, смартфоны и устройства IoT).

Supermicro SYS E403 9D 16C IPD2 — сервер для радиомачт

Supermicro SYS E403 9D 16C IPD2 — сервер для радиомачт

5G спроектирована как архитектура, управляемая сервисами, поэтому точная топология, которая связывает устройство с ЦОД, в большинстве случаев, вероятно, будет зависеть от самого приложения. Это позволит развернуть как сети массовой машинной связи, так и сети для сверхнадёжной связи с низкой задержкой.

Для расширенного мобильного широкополосного доступа это будет означать сочетание базовых станций 5G, 4G и Wi-Fi, образующих сеть радиодоступа (RAN), которые собирают информацию с пользовательских устройств и общаются с ​​локальным ЦОД, где большая часть данных кешируется (например, видеоконтент) и обрабатывается. А уже из ЦОД информация, если это необходимо, будет уходить далее по магистральным сетям, причём это может быть и ВОЛС, и опять-таки 5G.

Последние годы операторами постепенно внедряются технологии программно определяемых сетей (SDN) и виртуализации сетевых функций (NFV) с целью снизить затраты, ускорить выделение ресурсов и упростить управление сетью, что облегчает интеграцию с другими платформами. Это, в частности, открывает возможности для прямой связи с облаками. 3GPP уже стандартизировал базовые функции 5G, которые будут «полностью облачными» и основанными на контейнерах, подкреплённые новыми структурами безопасности и моделями качества обслуживания (QoS) для IaaS, PaaS, SaaS и других приложений «как услуга», размещённые в ЦОД поставщиков услуг.

Микро-ЦОД Submer MicroPod

Микро-ЦОД Submer MicroPod

Согласно прогнозу Gartner, к 2025 году на периферийные вычисления будет приходиться 75 % данных, генерируемых предприятиями. Тем не менее, корпоративные рабочие нагрузки по-прежнему будут составлять лишь небольшую часть от общего количества — они должны превысить 175 зеттабайт к 2025 году по сравнению с 33 зеттабайт в 2019 году. А почти половина (49 %) данных по-прежнему будет храниться в публичных облачных средах.

Постоянный URL: http://servernews.ru/1029374
Система Orphus