Материалы по тегу:

14.10.2021 [14:39], Руслан Авдеев

Vantage потратит $1 млрд на строительство ЦОД в Южной Африке

Компания Vantage Data Centers объявила о планах экспансии на африканском континенте. Стартовым проектом станет новый кампус мощностью 80 МВт в Йоханнесбурге (ЮАР). Первая фаза строительства площадки на 16 МВт должна быть закончена уже к лету 2022 года. Кампус будет состоять из трёх объектов на площади 12 га. Площадь самих объектов составит порядка 60 тыс. м2.

Vantage готова инвестировать в проект более $1 млрд. Это первая попытка компании обосноваться на африканском континенте. У неё уже имеются облачные мощности в Северной Америке и Европе, недавно анонсирована экспансия в Азиатско-Тихоокеанский регион благодаря приобретению Agile Data Centers и бизнеса компании PCCW, также связанного с ЦОД.

datacenterdynamics.com

datacenterdynamics.com

По данным Антуана Бонифация (Antoine Boniface), президента представительства Vantage в регионе EMEA, благодаря стратегическому местоположению, наличию кабельных соединений с остальными регионами Африки и доступности возобновляемой энергии, а также развитой IT-экосистеме Йоханнесбург стал хабом для дата-центров в субсахарской Африке.

По данным Vantage, ЦОД компании пользуются большим спросом у гиперскейлеров по всему миру, а глобальная экспансия в последние 2,5 года позволила бизнесу стать одним из самых быстрорастущих провайдеров данного сегмента в мире. Компания не намерена снижать темпы развития и начала строительство облачных мощностей в Берлине, Варшаве и Ньюпорте. Также Vantage приобрела участок Санта-Кларе (США) и подала заявку на строительство двух ЦОД в Дублине.

Постоянный URL: http://servernews.ru/1051267
14.10.2021 [13:48], Сергей Карасёв

Представлен флеш-массив HPE XP8 второго поколения для критически важных нагрузок

Компания Hewlett Packard Enterprise (HPE) анонсировала систему хранения данных корпоративного класса XP8 второго поколения. Массив на основе флеш-накопителей предназначен для критически важных и наиболее сложных рабочих нагрузок. Решение спроектировано с прицелом на обеспечение максимальной доступности данных.

Платформа HPE XP8 Gen 2 базируется на архитектуре СХД первого поколения. При этом по ключевым характеристикам специалистам НРЕ удалось добиться значительного прироста производительности. Так, количество операций ввода-вывода в секунду возросло приблизительно в полтора раза — с 20 млн до 33 млн. Задержка IO-кеша сократилась с 70 мс до менее чем 40 мс. Появился аппаратный ускоритель компрессии, который не только снижает нагрузку на CPU, но и на 20 % эффективнее сжимает данные.

Система обеспечивает доступность на уровне 99,999999 %, практически устраняя риск простоев. Все активные компоненты резервируются, поддерживают возможность горячей замены и их можно модернизировать без перерывов в работе. Дополнительно реализованы интеллектуальные функции, которые помогают решать проблемы до того, как они могут повлиять на доступность или производительность. Это, в частности, службы Performance Advisor, Intelligent Storage Manager и Data Protection Manager.

Доступны конфигурации с жёсткими дисками и флеш-накопителями SAS, NVMe, FMD, SCM. Кроме того, доступна организация сквозного NVMe-подключения посредством NVMe/FC. Суммарно можно получить до 69 Пбайт внутренней ёмкости, а также подключить до 255 Пбайт внешней ёмкости. Как и ранее, доступно сжатие данных на лету для более эффективного использования имеющейся ёмкости без потери производительности.

Постоянный URL: http://servernews.ru/1051257
14.10.2021 [12:17], Николай Хижняк

Rambus представила чип RCD 2-го поколения, который позволит создавать серверные модули DDR5-5600

Компания Rambus выпустила второе поколение регистровых драйверов (RCD) для памяти DDR5 — ключевых компонентов, которые позволят производителям памяти выпускать серверные модули регистровой (буферизированной, RDIMM) ОЗУ DDR5 со скоростью передачи данных до 5600 МТ/с (мегатранзакций в секунду).

Компания уже выпускает микросхемы RCD первого поколения для модулей памяти RDIMM DDR5-4800, которые будут использоваться в модулях ОЗУ, предназначенных для систем на базе грядущих серверных процессоров Intel Xeon Scalable 4-го поколения с кодовым именем Sapphire Rapids и других поддерживаемых платформ. Второе поколение RCD ориентировано на использование в составе RDIMM- и LRDIMM-модулей ОЗУ с эффективной частотой до 5600 МГц.

Источник изображений: Rambus

Источник изображений: Rambus

Модуль RCD представляет собой буферный компонент, который располагается между контроллером памяти и чипами памяти DRAM и перераспределяет команды и сигналы адресов внутри модуля для обеспечения целостности этих сигналов, а также позволяя подключать больше запоминающий устройств к одному каналу DRAM. Поскольку RCD является буфером, он естественно увеличивает задержки в работе ОЗУ. Для корректной работы драйвер требует поддержки определённого уровня передачи данных.

В Rambus отмечают, что второе поколение RCD для памяти DDR5 не только на 17 % процентов увеличивает пиковую пропускную способность памяти, но также оптимизирует задержки для повышения реальной производительности RDIMM-модулей памяти и повышает их энергоэффективность.

Компания уже готова поставлять микросхемы регистрового драйвера (RCD) второе поколение для памяти DDR5 производителям ОЗУ. Когда появятся первые модули ОЗУ DDR5-5600 RDIMM и LRDIMM на его основе — пока неизвестно. Весьма вероятно, что произойдёт это вместе с релизом серверных процессоров, поддерживающих скорость передачи данных DDR5 до 5600 МТ/с.

Постоянный URL: http://servernews.ru/1051249
14.10.2021 [01:11], Владимир Мироненко

Nokia предложила операторам самостоятельно размещать и управлять ПО в контейнерах прямо на CPE

Nokia объявила о предоставлении операторам связи возможности напрямую загружать ПО и управлять его жизненным циклом на оконечных устройствах, размещаемых у пользователя. Теперь можно в обход встроенного ПО запускать и обновлять собственные приложения с использованием контейнерного решения Nokia, что открывает новые возможности монетизации для операторов связи, которые смогут предоставлять гораздо более широкий набор услуг.

Контейнеры позволяют размещать независимые, изолированные от прошивки и друг от друга приложения, благодаря чему можно быстро добавлять новые услуги и возможности, в том числе от сторонних разработчиков, открывая тем самым новые возможности монетизации. Хотя контейнеры широко используются в облачных и корпоративных средах, для CPE это новый рынок. Список поддерживаемых устройств включает шлюзы Nokia WiFi Beacon 6 и FastMile 5G Gateway 3.2, а также терминал XS-2426G-B.

«Контейнеры приложений позволяют поставщикам услуг предлагать своим клиентам более гибкие решения, — пояснил Джон Кендалл (John Kendall), главный аналитик Omdia. — В то время как ранее для внедрения новых услуги была необходима предустановка ПО, контейнеры позволяют поставщикам услуг легко и быстро предоставлять новые функции своим клиентам, получая новые потенциальные потоки доходов. Они могут включать доступ к VPN для работы из дома, улучшенную защиту от угроз, уменьшение задержки для потокового видео и онлайн-игр, защиту конфиденциальность и родительский контроль».

Nokia создаёт сообщество разработчиков, чтобы сделать контейнерные приложения доступными для операторов связи через единую платформу. Первыми партнёрами компании стали F-Secure (защита), Broadpeak (доставка видео), Cognitive Systems (Wi-Fi Motion), Gamebench (мониторинг производительности), Domos (QoS на базе DPI), Ookla (тестирование скорости) и NTOP (анализ трафика).

Постоянный URL: http://servernews.ru/1051220
13.10.2021 [19:11], Сергей Карасёв

Intel и Google Cloud помогут ускорить геномные исследования

Институт биомедицинских и геномных исследований имени Эли и Эдит Л. Брод при Массачусетском технологическом институте и Гарварде взял на вооружение аппаратные решения Intel и облачную инфраструктуру Google Cloud для повышения эффективности вычислений.

Речь идёт об оптимизации рабочих процессов, связанных с геномными исследованиями. Intel сотрудничает с институтом имени Эли и Эдит Л. Брод с 2017 года. Совместно с этой организацией был создан центр Intel-Broad Center for Genomic Data Engineering: данный проект помогает исследователям и разработчикам ПО со всего мира создавать и оптимизировать инструменты и инфраструктуру для работы с геномными данными.

Intel

Intel

Как теперь сообщается, с целью дальнейшей оптимизации рабочих процессов институт перенёс свои рабочие нагрузки на инстансы Google Cloud N2 на базе Intel Xeon Scalable. В рамках проекта отдельные ядра платформы геномной аналитики Genome Analytics Toolkit оптимизированы с использованием библиотеки Intel Genomics Kernel Library под векторные операции AVX-512. А часть функций по работе с хранением данных теперь используют Intel Intelligent Storage Acceleration Library (ISA-L).

«Благодаря модульному проектированию ПО, верному выбору размеров облачной инфраструктуры в зависимости от необходимой рабочей нагрузки и оптимизации для процессоров Intel Xeon Scalable сотрудники учреждения могут решать поставленные задачи в области геномики на 25 % быстрее, уменьшая при этом затраты на 34 %», — говорится в публикации Intel.

Постоянный URL: http://servernews.ru/1051176
13.10.2021 [18:37], Сергей Карасёв

Supermicro представила новые GPU-серверы для ИИ и НРС

Компания Supermicro анонсировала серверы SuperServer SYS-220GQ-TNAR+ и SuperServer SYS-220GP-TNR на базе Intel Xeon Ice Lake-SP и ускорителей NVIDIA. Устройства предназначены для высокопроизводительных вычислений (НРС), обработки алгоритмов искусственного интеллекта (ИИ) и решения различных облачных задач.

Обе модели выполнены в формате 2U. Они поддерживают установку двух процессоров Intel Xeon Scalable третьего поколения в исполнении Socket P+ (LGA-4189). Могут применяться чипы с показателем TDP до 270 Вт. Первая относится к решениям на платформе NVIDIA HGX A100 (Redstone). Вторая же является более универсальной, поскольку рассчитана на PCIe-ускорители, в том числе начального и среднего уровня.

Здесь и ниже изображения Supermicro

Здесь и ниже изображения Supermicro

Первая модель — SuperServer SYS-220GQ-TNAR+ — наделена 32 слотами для модулей оперативной памяти DDR4-3200. GPU-часть представлена блоком из четырёх акселераторов NVIDIA A100 (80 Гбайт) с NVLink. Во фронтальной части предусмотрены четыре посадочных места для 2,5" накопителей с функцией «горячей» замены.

Присутствуют два сетевых порта 10GbE. Кроме того, возможна установка 200GbE-адаптеров NVIDIA ConnectX-6 с поддержкой GPUDirect RDMA (в соотношении 1:1 DPU:GPU). За питание отвечают два блока мощностью 3000 Вт каждый.

Модификация SuperServer SYS-220GP-TNR располагает 16 слотами для модулей ОЗУ. Могут применяться PCIe-акселераторы NVIDIA A100, A40 и RTX A6000. В лицевой части находятся 10 отсеков для накопителей стандарта 2,5". В оснащение входят два блока питания на 2600 Вт каждый.

Постоянный URL: http://servernews.ru/1051184
13.10.2021 [16:03], Сергей Карасёв

Zyxel выпустила Wi-Fi 6 точку доступа NWA50AX для малого бизнеса

Компания Zyxel анонсировала точку доступа NWA50AX с поддержкой беспроводной связи стандарта Wi-Fi 6. Новинка ориентирована на предприятия малого бизнеса, небольшие отели, кафе, домашние офисы или розничные магазины. Для установки и настройки устройства не требуется никаких навыков работы с сетями.

Возможна работа в частотных диапазонах 2,4 и 5 ГГц (2 × 2, 20/40/80 МГц): в первом случае скорость передачи данных может достигать 575 Мбит/с, во втором — 1200 Мбит/с. Устройство располагает одним портом 1GbE c поддержкой PoE (802.3at).

Здесь и ниже изображения Zyxel

Здесь и ниже изображения Zyxel

Для обеспечения сосуществования с сотовыми сетями и снижения помех от оборудования 4G/5G точка оснащена соответствующими фильтрами, поэтому её можно размещать вблизи антенн сотовой связи.

Благодаря поддержке фирменной технологии Zyxel NebulaFlex обладатель новинки может выбрать подходящий ему режим управления точкой доступа — с помощью локального веб-интерфейса или же посредством облачной системы управления Nebula. Стоит отметить, что поддержки 802.1x (WPA-Enterprise) и Captive Portal в данной модели нет.

Устройство имеет габариты 140 × 140 × 37,5 мм и весит 290 г. Допускается эксплуатация внутри помещений при температуре от 0 до +50 C и отн. влажности от 10 % до 90 % (без образования конденсата). В комплекте поставляются блок питания и монтажная пластина с винтами.

Постоянный URL: http://servernews.ru/1051178
13.10.2021 [15:43], Руслан Авдеев

Безопасные облака, дорого: стоимость стартапа Wiz за полтора года выросла с нуля до $6 млрд

Компания Wiz, занимающаяся обеспечением информационной безопасности для облачных инфраструктур и основанная выходцами из Microsoft Cloud Security Group, в ходе раунда финансирования серии C получила $250 млн, что привело к повышению оценочной стоимости компании до $6 млрд. Это один из самых быстрорастущих «единорогов» не только в области кибербезопасности, но и за последние годы в целом.

В последние месяцы Wiz неоднократно появлялась в новостях с впечатляющими результатами исследований в области облачных технологий, включая отчёт об уязвимостях OMIGOD и ChaosDB. По словам одного из основателей и главы Wiz Асафа Раппопорта (Assaf Rappaport), после того как он и его партнёры продали Microsoft первый стартап в 2015 году, следующие четыре года они работали над развитием Cloud Security Group, но с началом пандемии приняли решение оставить компанию для основания Wiz.

wiz.io

wiz.io

Через шесть месяцев после написания первой строчки кода новой компанией был подписан первый многомиллионный контакт, а теперь бизнес сотрудничает со многими известными компаниями и обслуживает более 10% списка Fortune 500. Ранее в этом году стартап получил более $300 млн инвестиций от Sequoia, Index и Salesforce. После того, как в ходе раунда C стартап получил ещё $250 млн инвестиций, оценочная стоимость Wiz достигла $6 млрд. В новом раунде ведущими инвесторами стали Insight Partners и Greenoaks Capital, к которым присоединились Sequoia, Index, Salesforce и другие игроки.

Пандемия COVID-19 вызвала сильнейшую волну миграций в облачные сервисы из когда-либо виденных в истории — по данным опросов, 81% руководителей сократили сроки переезда в облака. При этом многие не располагают должным уровнем квалификации для самостоятельного обеспечения безопасности в облаках. Wiz обладает нужным опытом, не просто выявляя риски, но и придавая им приоритетное значение, а также определяя основные векторы атак. Кроме того, команда постоянно занимается поиском уязвимостей в облаках. «Wiz выполняет задачу по превращению облаков в менее туманную среду — и намного более безопасную», — считает Раппопорт.

Постоянный URL: http://servernews.ru/1051177
13.10.2021 [14:55], Владимир Мироненко

NEC построит для Facebook подводный кабель с самой высокой пропускной способностью в мире — 500 Тбит/с между США и Европой

Японская транснациональная ИТ-компания NEC планирует построить для социальной сети Facebook подводный кабель с 24 оптоволоконными парами и самой высокой пропускной способностью в мире — до 500 Тбит / с. Этот частный кабель соединит США с Европой, но компании не раскрывают, какие европейские страны будут к нему подключены, а также не сообщают точных сроков завершения проекта.

По словам создателей, новый кабель обеспечивает в 200 раз большую пропускную способность, чем трансатлантические кабели начала века. Он также станет первым в отрасли решением с 24 парами оптоволокна, поскольку до этого количество пар обычно не превышало 16. В NEC заявили, что на сегодняшний день кабель имеет самую высокую пропускную способность среди подводных кабельных систем большой протяжённости.

Тем не менее, это не единственный проект подобного класса. Так, ранее в этом году Confluence заявила, что планирует построить кабель Confluence-1 вдоль восточного побережья США, который тоже будет иметь 24 пары и пропускную способность более 500 Тбит/с. Ожидается, что он будет пущен в эксплуатацию во второй половине 2023 года.

Сейчас рекорд по скорости передачи данных принадлежит кабелю Google Dunant с 12 парами оптоволокна протяжённостью 6400 км, соединяющим Вирджинию с Францией каналом ёмкостью 250 Тбит/с. В скором времени его опередит готовящийся к запуску кабель Grace Hopper с пропускной способностью 340 Тбит/с, который также принадлежит Google.

Постоянный URL: http://servernews.ru/1051170
13.10.2021 [13:39], Владимир Мироненко

Google Distributed Cloud позволит расширить инфраструктуру Google на периферию и в дата-центры заказчиков

Google в ходе конференции Cloud Next '21 анонсировала портфель решений Google Distributed Cloud, состоящий из аппаратного и программного обеспечения, который позволит расширить инфраструктуру вендора на периферию и в дата-центры. В число первых продуктов этого портфеля вошли решения Google Distributed Cloud Edge и Google Distributed Cloud Hosted.

Google отметила, что некоторые из рабочих нагрузок компаний не могут быть перенесены в публичное облако полностью или сразу из-за таких факторов, как необходимость соответствия отраслевым или региональным требованиям и потребности в суверенитете данных, из-за высокой задержки и требований к локальности обработки данных, или из-за того, что они должны работать близко к другим сервисам. Google Distributed Cloud поможет решить эту проблему.

Портфель Google Distributed Cloud построен на Anthos, платформе Google с открытым исходным кодом для управления инфраструктурой и приложениями в локальных, пограничных и общедоступных облаках. Клиенты могут использовать его для миграции приложений и локальной обработки данных с помощью облачных сервисов Google в дополнение к продуктам сторонних поставщиков, таких как Cisco, Dell, HPE и NetApp.

Портфель Google Distributed Cloud спроектирован для работы в нескольких местах, включая границу сети, границу оператора, границу клиента и центры обработки данных клиентов. Google отметила, что он может использовать более 140 периферийных точек присутсвия по всему миру. Distributed Cloud также может использовать преимущества сервисов 5G и LTE от поставщиков услуг связи (CSP), независимо от того, развернуты ли они, к примеру, в розничных магазинах и на заводах или в локальных системах банков и на колокейшн-объектах.

Доступное в предварительном варианте решение Distributed Cloud Edge позволяет компаниям запускать функции ядра 5G и сети радиодоступа на периферии совместно с корпоративными приложениями. Решение поддерживает такие варианты использования, как компьютерное зрение и ИИ-инференс, локальная обработка данных, вычислительные нагрузки с низкой задержкой и развёртывание частных сетей 4G/5G. Например, ретейлеры перенести нагрузки на периферийные облачные узлы Google, а поставщики услуг связи могут предлагать своим клиентам высокоскоростное частное 5G-подключение совместно со специализированными услугами.

Решение Google Distributed Cloud Hosted, предварительный доступ к которому запланирован на первую половину 2022 года, предназначено для поддержки клиентов государственного сектора и предприятий, которые предъявляют строгие требования к хранению данных, безопасности или конфиденциальности. Для управления инфраструктурой, сервисами, API или инструментами не требуется подключение к Google Cloud, а управлением занимается развёрнутая локально платформа Anthos.

Одними из первых Google Distributed Cloud Hosted получат немецкая T-Systems и французская OVHCloud. Также было объявлено о партнёрстве с французской Thales в рамках проекта Trusted Cloud. Во всех случаях это поможет соблюсти регуляции как Евросоюза, так и отдельных стран или ведомств.

Анонс Google Distributed Cloud на базе Anthos является ответом на похожие от AWS и Microsoft Azure. Наряду с такими сервисами, как Anthos Config Management, Anthos Service Mesh и Migrate for Anthos, Distributed Cloud является частью амбициозного плана Google Cloud по дальнейшему захвату рынка публичных облачных вычислений, который, согласно прогнозам, к 2023 году вырастет до $482 млрд.

Постоянный URL: http://servernews.ru/1051121
Система Orphus