Лента новостей

18.01.2020 [23:51], Андрей Галадей

Дистрибутив Linux Fedora CoreOS стабилизирован и доступен для всех

Дистрибутив Linux Fedora CoreOS, как сообщают разработчики, стабилизирован и готов для массового использования. Отныне он является полноценной заменой Fedora Atomic Host и CoreOS Container Linux, поддержка которых прекратится в середине и конце текущего года. 

Сама сборка является максимально автоматизированной системой с атомарным обновлением, рассчитанной на унифицированное развёртывание контейнерных систем.

fedoramagazine.org

fedoramagazine.org

В поставке есть только базовый набор: ядро Linux, системный менеджер systemd, а также набор утилит для SSH, управления конфигурацией и установки обновлений.

Отдельно отметим безопасность дистрибутива, поскольку системный раздел монтируется в режиме только чтения, а конфигурация подгружается позднее. Схема обновление построена на базе двух разделах, лишь один из которых активен. На второй ставятся нужные обновления, после чего разделы меняются ролями.

Fedora CoreOS основана на ядре Linux 5.4, systemd 243 и может функционировать в live-режиме. Кроме запуска с носителя, есть возможность загрузки по сети через PXE. Сам образ скачать можно здесь.

Постоянный URL: https://servernews.ru/1001752
18.01.2020 [18:01], Сергей Юртайкин

Суд вынес вердикт по обвинению Gartner в занижении в рейтинге IT-компаний, не платящих за допуслуги

Верховный суд штата Коннектикут вынес вердикт по разбирательству, в рамках которого производитель решений для управления сетями Netscout обвинял аналитическую компанию Gartner в якобы необоснованном занижении позиций в своём рейтинге — в так называемом «магическом квадранте».

В своём иске Netscout утверждала Gartner поместила компанию в группу «претендентов» (Challengers), а не «лидеров» (Leaders) в «магическом квадранте» для рынка технологий мониторинга и диагностики производительности сети в качестве мести за неуплату за консалтинговые услуги.

«У Gartner есть бизнес-модель pay-to-play, которая вознаграждает клиентов, тратящих значительные суммы за различные услуги, в авторитетных исследовательских отчётах и наказывает технологические компании, которые отказываются платить много денег за услуги Gartner», — говорится в жалобе Netscout.

В компании заявляют, что оплата консалтинговых услуг является «важным фактором», влияющим на размещение ИТ-вендора в рейтинге. Однако доказать это в суде Netscout не удалось: судья счёл недостаточными доказательства злого умысла Gartner и связи расходов на услуги с позициями в рейтинге.

Netscout — это не первая компания, пытавшаяся засудить Gartner за низкие позиции в «магическом квадранте». Например, в 2009 году суд отклонил иск ZL Technologies, которая жаловалась на размещение компании в «нишевом» секторе «магического квадранта» в области ПО для архивирования электронной почты.

Постоянный URL: https://servernews.ru/1001733
18.01.2020 [07:52], Владимир Мироненко

DigitalOcean сократит до 10% персонала в рамках реорганизации

Облачный провайдер DigitalOcean, сменивший генерального и финансового директоров прошлым летом, по данным источников, приступил к более широкой реорганизации: стартап приступил к увольнениям, которые могут коснуться от 30 до 50 человек. 

С учётом того, что штат DigitalOcean, по оценкам PitchBook, составляет около 500 человек, предполагается уволить порядка 10 % персонала. 

Diane Keough/Getty Images

Diane Keough/Getty Images

В DigitalOcean подтвердили эти слухи следующим заявлением: «DigitalOcean недавно объявила о реструктуризации, чтобы лучше выстроить свои команды в соответствии со стратегией дальнейшего развития. В рамках этой реструктуризации некоторые должности, к сожалению, были исключены. DigitalOcean по-прежнему является быстрорастущим бизнесом с $275 млн годового дохода и более 500 000 клиентов по всему миру. В соответствии с этой новой организационной структурой мы сможем ускорить рост прибыли, продолжая обслуживать разработчиков и предпринимателей по всему миру».

Компания DigitalOcean, возглавляемая Янси Спруиллом (Yancey Spruill), предоставляет разработчикам ряд услуг облачной инфраструктуры, в том числе масштабируемые вычислительные службы, управляемые кластеры Kubernetes, хранилище объектов, службы управляемых баз данных, облачные брандмауэры, решения для балансировки нагрузки и т. д. Ресурсы компании размещены в 12 ЦОД по всему миру. Компания утверждает, что сотрудничает с более чем 1 млн разработчиков в 195 странах.

Постоянный URL: https://servernews.ru/1001704
17.01.2020 [22:12], Геннадий Детинич

Asetek начнёт продавать «мусорное» тепло от ЦОД городской теплосети Ольборга

Датская компания Asetek, известный производитель СЖО для ПК, серверов и ЦОД, помимо всего прочего занимается и проблемами утилизации «мусорного» тепла при охлаждении ЦОД.

Вскоре Asetek начнёт эксперимент по продаже излишков тепла централизованной теплосети города в Дании, что, как утверждается, станет первым в мире доступным решением подобного рода.

На этой неделе компания Asetek сообщила, что с 3 февраля она начнёт продавать тепло городской теплосети города Ольборга. Теплоноситель будет подаваться с небольшого центра по обработке данных, принадлежащего Asetek. Необычность проекта заключается в том, что компания реализовала его без необходимости использования дорогостоящих тепловых насосов.

Стойка в ЦОД Asetek с жидкостным охлаждением компонентов (Asetek)

Стойка в ЦОД Asetek с жидкостным охлаждением компонентов (Asetek)

Например, похожий проект компании Facebook потребовал 135 млн крон инвестиций (около $20 млн) на закупку тепловых насосов для нагрева воды от ЦОД Facebook в городе Оденсе для нагрева отработанной воды с 25–30 °C до 60 °C, необходимых для подачи в городскую теплосеть. Такой подход сложно назвать доступным. ЦОД Яндекса в городе Мянтсяля (Финляндия) также использует станции донагрева воды перед отдачей во внешнюю сеть. 

Небольшой ЦОД Asetek в Ольборге сразу будет подавать разогретый до примерно 60 °C носитель прямо в теплосеть города. Также для соединения магистрали теплоотвода ЦОД и теплоцентрали города не потребовалось сложных строительно-монтажных работ: только неглубокая траншея и теплоизолированные трубы.

Протстые работы по подключению к городской теплоцентрали (Asetek)

Простые работы по подключению к городской теплоцентрали (Asetek)

По уверениям Asetek, данный проект готов к переносу на более мощные ЦОД. Для Дании это больное место. Эта страна находится на переднем крае борьбы с углеродным следом, но массовое возведение ЦОД на её территории крупнейшими мировыми ИТ-гигантами портит всю картину. К 2030 году прогнозируется, что 17 % электроэнергии в Дании будут потреблять центры по обработке данных. Утилизировать выработанное этими ЦОД тепло стало вызовом для правительства этой страны.

По подсчётам Asetek, разработанная компанией система прямой передачи тепла от ЦОД в городские теплосети позволит на 25 % снизить потребление энергии и будет на 70–80 % использовать выработанное ЦОД тепло. Если кто-то думает, что это лишнее, достаточно сказать, что углеродный след от ЦОД уже превышает углеродный след от авиаперевозок во всём мире. Отдельный привет девочке-экоактивистке, которая не летает самолётами, но использует Facebook и Инстаграм.

Постоянный URL: https://servernews.ru/1001701
17.01.2020 [20:40], Владимир Романченко

Реорганизация ЦОД-подразделения Intel может сопровождаться массовыми увольнениями

SemiAccurate со ссылкой на собственные источники в компании сообщил, что на этой неделе в одном из подразделений компании Intel начались массовые увольнения. Официальные представители Intel пока не подтверждают эту информацию, ограничившись ранее таким комментарием: «Сообщения о значительном сокращении сотрудников в нашем подразделении Data Platforms Group (DPG) неточны».

По их словам, в ЦОД-подразделении компании в настоящее время идут «скорее перестановки, нежели реорганизация» в связи с «новыми рыночными целями компании».

По данным SemiAccurate, речь идет о сокращении до 25-33% от общего числа сотрудников дивизиона Data Center Group, но не всех сразу, а постепенно, до конца первого квартала 2020 года. Как отмечают источники SemiAccurate, в DCG, которая теперь влилась DPG, ряд ключевых сотрудников уходят на пенсию, часть получили повышение, но некоторые все же попали под массовые сокращения.

В свою очередь, портал Anandtech со ссылкой на собственные источники подтверждает информацию о том, что в связи с реорганизацией бизнеса и переформатирования рабочих групп внутри дивизиона Data Center Group, ряд сотрудников в настоящее время «переводится на другие должности, получают повышения, меняют названия должностей, а кто-то действительно будет уволен».  

Фактически Data Center Group (DCG) стала одним из подразделений Data Platforms Group (DPG) — наряду с рядом других подразделений по различным продуктам. Ключевое отличие DPG от DCG заключается в том, что отныне Intel намерена сфокусировать свои усилия на продвижении платформ, а не отдельных продуктов.

Самой заметной перестановкой в топ-менеджменте Intel в рамках реорганизации пока что является назначение Навина Шеноя (Navin Shenoy), бывшего исполнительного вице-президента и генерального директора DCG, на аналогичную должность в DPG. Другой значительной перестановкой можно назвать назначение Лизы Спелман, вице-президента DCG и генерального менеджера по маркетингу процессоров Xeon и ЦОДов, на должность вице-президента и генерального директора новой группы Xeon and Memory (Optane) (XMG). Ей предстоит координировать развитие продуктов Xeon и памяти Optane, но с сохранением участия в маркетинге.

Недавно также сообщалось, что Радж Хазра (Raj Hazra) уходит в отставку с должности главного управляющего подразделения решений для предприятий и правительств в DCG. Эта группа будет объединена с группой облачных платформ и технологий DCG, которой в настоящее время руководит Джейсон Гребе (Jason Grebe), а Джейсон станет генеральным директором новой объединенной группы, охватывающей значительную часть корпоративного и облачного бизнеса Intel, а также решений для государственных предприятий.

По данным Anandtech, если увольнения в DCG и/или других подразделениях Intel и носят массовый характер, то они затронут скорее сотрудников отделов продаж и маркетинга. На просьбу портала представить организацию новую корпоративной структуры в Intel заявили, что в настоящее время они не в состоянии обнародовать эту информацию публично.

Постоянный URL: https://servernews.ru/1001699
17.01.2020 [20:35], Алексей Степин

Новый подводный кабель NEC показал рекордные характеристики

Волна роста объёма передаваемых данных неизбежно должна была затронуть и соединяющие континенты подводные коммуникации — на их плечах лежит основная нагрузка. Так что разработчики ищут способы увеличения пропускной способности подводных кабелей.

Компания NEC, один из ведущих поставщиков таких решений, объявила о том, что ею разработан новый вариант подводного кабеля с 20 парами оптических волокон. Утверждается, что это рекордное на сегодня число пар для этого типа кабелей.

Для сравнения, кабели Equiano и Dunant, которые должны будут соединить восточный берег США с Францией, а Южную Африку с Португалией, и прокладку которых ведет Google, используют, по имеющимся данным, всего 12 пар волокон. Кабель типа Dunant способен передавать данные на скорости 250 Тбит/с, но на момент анонса этого дизайна NEC заявила, что уже располагает конструкцией, позволяющей объединять до 16 пар волокон.

Как уже было сказано, новейший дизайн NEC, анонсированный на этой неделе, имеет на 25% больше оптических пар и это не предел — японский гигант ведёт работы по созданию ещё более ёмких кабелей с 24 парами волокон.

По словам представителей компании, увеличение количества волокон не потребует от NEC существенной переработки существующих кабельных конструкций — необходима будет лишь незначительная переделка повторителей и самих кабелей. Об этом свидетельствует и тот факт, что NEC продолжает использовать в новой конструкции старые «помпы» (усилители оптического сигнала) с технологией «quadruple pump sharing», разработанной ещё десятилетие назад.

Подводные повторители NEC

Подводные повторители NEC

Телекоммуникационные гиганты, владеющие инфраструктурой подводных кабелей, такие, как NEC, TE Subcom и Alcatel-Lucent в последнее время испытывают нарастающее давление со стороны таких крупных ИТ-компаний, как Google, Facebook и Microsoft.

Пока существующие кабельные подводные системы ещё располагают запасом ёмкости, однако упомянутые выше игроки на ИТ-рынке активно инвестируют в создание собственных подводных сетей, соединяющих крупные ЦОД. Это должно обеспечить им контроль над каналами передачи данных и обеспечить повышенную надёжность коммуникаций, вот почему в эту сферу вкладываются сотни миллионов долларов.

Постоянный URL: https://servernews.ru/1001698
17.01.2020 [15:39], Владимир Романченко

Итоги 2019 года от ServerNews: самое интересное из мира больших мощностей

Рынок

Российский рынок серверов, по данным IDC, показал в третьем квартале 2019 года падение продаж на 16,9 % по сравнению с аналогичным периодом предыдущего года (33 334 сервера всех типов), но в денежном выражении вырос на 6,5% до $266,74 млн. Продажи х86-серверов в штуках сократились на 17,1 %, но по-прежнему составили львиную долю сегмента: 99,3 % в количественном исчислении и 88,7 % в денежном. На фоне этого значительным образом, на 61,6 % по сравнению с прошлогодним результатом, выросли поставки RISC-систем.

По мнению аналитиков Digitimes Research, глобальный рынок серверов после незначительного спада в 2019 году покажет 5-6 % рост и по итогам 2020 года, чему будут способствовать закупки оборудования крупными американскими ЦОДами и гиперскейлерами, которые активно растут. В 2019 году число сверхкрупных дата-центров во всём мире перевалило за полтысячи — по данным Synergy Research, в третьем квартале 2019 года количество ЦОД для облачных вычислений, электронной коммерции или социальных сетей, мощности которых измеряются десятками тысяч серверов, составило 504 против 390 в конце 2017 года.

В России в 2019 году продолжился курс на импортозамещение. В частности, правительство РФ ввело 2-годичный запрет на приобретение иностранных СХД для государственных и муниципальных нужд «в целях обеспечения безопасности критической информационной инфраструктуры Российской Федерации, в том числе используемой при реализации национальных проектов (программ)». Глава Минпромторга Денис Мантуров сказал, что ежегодно госсектор закупает оборудование для хранения данных на 8-9 млрд рублей. Он отметил, что в стране немало отечественных производителей СХД.

Облака

Рынок публичных облаков показал отличную динамику в 2019 году и будет расти дальше: по прогнозам Gartner, по итогам 2019 года этот сегмент достигнет $227,8 млрд, показав годовой рост на 15–16%.

В общем объёме рынка чуть менее половины — $99,5 млрд, пришлось на платформы SaaS, $43,7 на BPaaS, $40,3 млрд на IaaS, около $32,2 млрд на PaaS, и ещё примерно $12,0 млрд на сервисы в сфере безопасности и управления. В 2020 году Gartner прогнозирует 17% рост рынка до $266,4 млрд, на 2021 год прогнозируется $308,5 млрд, на 2022 год – до $354,6 млрд.

Рынок публичных облаков показал отличную динамику в 2019 году и будет расти дальше: по прогнозам Gartner

Российскому рынку облачных услуг, который IDC по итогам 2018 года оценивала в $804 млн, на 2019 год прогнозировался рост расходов на публичные и частные cloud-сервисы на 23,6%, до 2023 года среднегодовые темпы роста рынка оценивались на уровне 14,6%, до $1,6 млрд.

Итогом одного из крупнейших в мире облачных тендеров 2019 года стало решение Минобороны США о выборе Microsoft в качестве ключевого подрядчика по созданию платформы JEDI (Joint Enterprise Defense Infrastructure Cloud) для создания распределённой облачной инфраструктуры хранения и обработки данных разных уровней секретности Пентагона. Ожидается, что до полного ввода системы JEDI в действие в 2029 году подрядчик получит около $10 млрд.

В борьбе за контракт JEDI схватились Microsoft, Amazon, IBM и Oracle, при этом пятый потенциальный участник тендера, Google, отказалась от участия «по этическим причинам» после протестов собственных сотрудников. Amazon такое решение не устроило, и в ноябре компания подала иск в федеральный суд США к Министерству обороны США. Вместе с контрактом на JEDI, по мнению аналитиков, Microsoft также получила дополнительные рычаги для продвижения Azure в других государственных облачных тендерах США. По оценкам Wedbush Securities, расходы госорганов США на облачные вычисления в следующем десятилетии составят порядка $100 млрд.

ПО

Главной сделкой на рынке ИТ в 2019 году стало приобретение IBM компании Red Hat за $34 млрд. Эта сделка, самая большая за всю историю IBM, усилит облачный бизнес компании за счет гибридной многооблачной платформы на технологиях с открытым исходным кодом, таких как Linux и Kubernetes. В IBM заверили, что Red Hat продолжит расширять партнёрские отношения, в том числе, с крупными облачными провайдерами, такими как Amazon Web Services, Microsoft Azure, Google Cloud и Alibaba. По прогнозам Red Hat, ОС Red Hat Enterprise Linux поможет сгенерировать компаниям более $10 трлн выручки в 2019 году, а к 2023 году в мире появятся 640 тысяч новых рабочих мест, связанных с технологиями Red Hat. 

Программный комплекс Kubernetes, появившийся всего пять лет назад, к 2019 году успел стать самым популярным средством для развертывания и управления контейнеризированными приложениями. Настолько популярным, что даже VMware в рамках проекта Pacific работает над поддержкой средств управления Kubernetes в vSphere. Это позволит работающим с vSphere системным администратором управлять контейнерными приложениями, а тесная интеграция vSphere и Kubernetes позволит управлять средствами последнего и классическими виртуальными машинами. В VMware считают, что Kubernetes может стать единой системой управления всеми видами рабочих нагрузок.

VMware Pacific: поддержка Kubernetes в vSphere

Из крупных сделок последних дней также отметим покупку Veeam за $5 млрд. В мире open source наиболее важными являются релизы ядра Linux 5.4 и грядущие 5.5 и 5.6, которые привнесут просто огромное количество нововведений и улучшений. 

Что касается средств разработки, то ключевым анонсом, пожалуй, стал выход oneAPI под эгидой Intel — унифицированной модели программирования для разных архитектур, которая позволяет с минимальными правками в коде переносить нагрузку на различные ускорители, включая GPU, ИИ-акселераторы, FPGA. Для последних Xilinx представила платформу Vitis, которая также значительно ускоряет разработку ПО для ПЛИС компании. Наконец, AMD представила ROCm 3.0, следующую версию платформы для унификации вычислений на CPU и GPU. 

Процессоры

В ряду крупнейших событий 2019 года можно назвать апрельский анонс процессоров Intel Xeon Cascade Lake, которые получили обратную совместимость с прошлым поколением, поддержку памяти Optane DCPMM в слотах DDR4, набор инструкций для ускорения ИИ, аппаратные «заплатки» против нашумевших уязвимостей. В новом семействе чипов также появились специализированные модели, включая 2-кристальные мультичиповые AP с числом ядер до 56. 

Мощным во всех смыслах ответом стал выпуск серверных процессоров AMD EPYC Rome с 64/128 ядрами/потоками, поддержкой 8 каналов памяти DDR4-3200 и 128 линий PCI Express 4.0 в одном чипе. Впервые за многие годы речь не только о возвращении AMD на серверный рынок, но также о серьезной конкуренции господству Intel. 

Чипы AMD EPYC Rome на базе микроархитектуры Zen2 являются сборкой из блоков (CCD) с ядрами и L3-кешем, но в составе CCD теперь может быть восемь ядер. В сумме на сокет приходится до 64 ядер, а в 2-сокетной конфигурации получается до 128 ядер и до 256 потоков.

Однако в 2019 году произошло другое, не менее важное событие. В архитектуру ARM для серьезных серверных решений наконец-то поверили. Все немногочисленные, но крупные участники рынка серверных ARM-решений показали свои новые продукты: Huawei представила 64-ядерный ARM-процессор Kunpeng 920, Ampere Computing объявила о планах производства флагманских 7-нм 64-битных CPU Ampere с числом ядер до 80; Amazon представила 32-ядерный ARM-процессор AWS Graviton второго поколения на базе 7-нм ядер Neoverse N1 с архитектурой ARMv8-A (ядра Cortex-A76 с оптимизациями). 

Из «старой гвардии» выжили лишь ThunderX. Комментируя планы относительно Marvell ThunderX3 и X4, которые получат SVE, в Marvell отметили, что экосистема ARM в серверном и HPC-сегментах за последние два года значительно выросла, в немалой степени благодаря сотрудничеству с Cray. В Fujitsu отметили, что в отличие от «мобильного мира» ARM, его серверный путь только зарождается. Именно эта компания стала технологическим лидером серверных ARM. Подтверждением тому — первый суперкомпьютер Fugaku на базе архитектуры Fujitsu A64FX в последнем TOP500, и сразу на первом месте в Green500.

Ускорители

В прошлом году Intel анонсировала начало поставок новой  ПЛИС Stratix 10 DX, которая отличается от других моделей серии Stratix 10 поддержкой более скоростных внешних интерфейсов, включая Ultra Path Interconnect (UPI), памяти Intel Optane, и шины PCI Express 4.0 для более скоростной связи между FPGA и другими устройствами. Вместе с Cascade Lake компания анонсировала новое поколение ПЛИС Agilex. Заодно Intel успела чуть обогнать Xilinx по числу логических элементов: у августовской Virtex UltraScale+ VU19P их 9 млн, а у ноябрьской Stratix 10 GX 10M уже 10 млн. Кроме того, Xilinx показала новое поколение Alveo. А Achronix предствила 7-нм Speedster7t.

В области уже традиционных ускорителей NVIDIA и AMD событий не так много. «Зелёные» выпустили минорное обновление Tesla V100s PCIe, и был замечен серверный вариант GeForce RTX 2080 Ti. «Красные» же, похоже, отказались от старшей модели Radeon Instinct MI60, но уже имеются признаки скорого выхода нового флагмана MI100. Впрочем, у NVIDIA был ещё один важный анонс, но он касается не «железа», а ПО — компания представила референсную платформу на базе ARM CPU ThunderX2 и Tesla вместе со всем необходимым программным стеком. Кроме того, NVIDIA представила EGX для периферийных вычислений. 

Про анонс ускорителей Intel Xe HPC не упомянуть нельзя, однако пока они существуют только на бумаге. Известно, что новинки получат сразу несколько микроархитектур для разных видов расчётов, память HBM и особый кеш, а также возможность лёгкого объединения CPU и GPU для простоты масштабирования. 

Но всё это меркнет на фоне бесчисленных анонсов ИИ-акселераторов для обучения и исполнения нейронных сетей. Отметим лишь некоторые наиболее значимы и интересные среди них. Во-первых, Intel, наконец, довела до ума Nervana, представив NNP-T и NNP-I. Заодно компания прикупила Habana Labs. Во-вторых, до реальных машин добрались ускорители Graphcore. В-третьих, в лидеры среди доступных продуктов выбился Grog. Ну а самым большим ускорителем стал Cerebras, который размещён на кристалле со стороной 21,5 см и содержит 1,2 трлн транзисторов. 

OCP-серверы Microsoft Open CloudServer для Azure

Память

В сегменте оперативной памяти интереснейшим событием стала инициатива IBM по созданию стандарта DDIMM-памяти Open Memory Interface (OMI) для серверов с целью уменьшения числа модулей и ускорения подсистемы памяти: даже для DDR4 можно получить 4 Tбайт или 650 Гбайт/с оперативной памяти на сокет. В основе открытого интерфейса OMI лежат семантика и протоколы OpenCAPI 3.1 с использованием шины BlueLink (25 Гбит/с), которая в нынешних POWER-чипах отвечает за работу NVLink и Open(CAPI). DDIMM будет работать и с DDR5, первые тестовые платформы для которой должны появиться в 2020 году.

Топология подсистемы памяти IBM Centaur

Кроме того, в 2019 году наконец-то заговорили об удешевлении Storage-class memory (SCM), типичным примером которой является Intel Optane. Одновременно с анонсом Xeon Scalable Cascade Lake, компания Intel представила Optane DCPMM в форм-факторе DIMM-модулей, позже Intel выпустила релиз эталонного стека ПО Database Reference Stack 1.0 для упрощения работы баз данных с Optane DCPMM. Конкуренцию Intel составит Micron QuantX, SK Hynix тоже собирается вывести на рынок SCM-продукт, а у Samsung уже есть Z-SSD

Сети и хранилища

Стандарт PCI Express 4.0, о котором так много говорили на протяжении последних трёх лет, в 2019 году наконец-то получил коммерческое развитие, отчасти благодаря запуску платформы AMD EPYC Rome 7002, процессоры которой поддерживают до 128 линий такого типа. Они всё же являются более массовыми решениями, чем IBM POWER, за которыми остаётся звание первых CPU с поддержкой этого стандарта.

Теперь вокруг PCI Express 4.0 выстраивается полноценная экосистема во всех секторах. Так, Kioxia (Toshiba)  представила SSD корпоративного класса серии CD/6CM6 с интерфейсом PCIe 4.0 x4, корпоративные SSD Samsung серии PM1733 представлены в вариантах с PCIe 4.0 x4 и в виде карт HHHL с PCIe 4.0 x8. Кроме того, внедрение нового стандарта благотворно скажется и на популяризации «рулеров», которые и сейчас позволяют получить 1 Пбайт в 1U-хранилище

Решения под PCIe 4.0 также показали производители сетевого оборудования, да и в целом стоить отметить переход к сетям 200 Гбит/с и подготовку к 400GbE. Mellanox анонсировала 200 Гбит/с сетевые адаптеры ConnectX-6 Dx класса SmartNIC и контроллер BlueField-2 I/O Processing Unit (IPU) для облачных платформ с поддержкой Ethernet и InfiniBand. 

Broadcom представила PCIe 4.0 Ethernet-адаптеры NetXtreme E для платформ класса AMD EPYC Rome 7002 и IBM POWER9, также с поддержкой скоростей до 200GbE. В дополнение, Broadcom выпустила семейство PCIe Gen 4.0 ExpressFabric для ЦОДов и и облачных платформ, включая коммутаторы PEX88000 и ретаймер PEX88T32.

Под конец года на SC’19 компания Viking Enterprise представила СХД NSS-2249 (она же Cray ClusterStor E1000) в форм-факторе 2U на базе двух вычислительных модулей AMD EPYC 7002 с поддержкой 24 NVMe-накопителе PCI Express 4.0. Особенностью системы является 2-портовое подключение SSD формата U.2, что гарантирует видимость всех 24 накопителей системы каждому из обоих процессоров. За счет поддержки PCIe 4.0 узлы общаются друг с другом на скорости до 96 Гбайт/с, а слоты OCP NIC позволяет устанавливать высокоскоростные сетевые карты, включая Broadcom N2200G с двумя портами 200GbE или платы Mellanox ConnectX-6 Infiniband HDR.

NVMe-oF (NVMe over Fabrics) версии 1.1

В 2019 году наряду с NVM Express 1.4 были представлены спецификации «повзрослевшего» стандарта NVMe-oF (NVMe over Fabrics) версии 1.1. Спецификации NVMe-oF 1.1 включают поддержку транспорта TCP/IP для уже действующей сетевой инфраструктуры, а удалённое подключение SSD и массивов СХД близко по возможностям к системам с прямым подключением. Ряд других улучшений поможет собирать комплексные системы с интеграцией СХД одновременно с прямым и удалённым подключением.

В конце 2019 года соглашение NVIDIA о намерении приобрести Mellanox Technologies за сумму порядка $6,9 млрд было успешно одобрено европейскими регуляторами, и последним препятствием осталось получение разрешения от антимонопольных структур Китая, где у Mellanox находятся крупные клиенты, такие как Alibaba и Baidu. Именно по этой причине финальное поглощение Mellanox отложено на начало 2020 года, заявили в NVIDIA.

С активами Mellanox,NVIDIA получает широкие возможности для укрепления позиций в серверном сегменте, особенно в суперкомпьютерном секторе. Технологии Mellanox, такие как, например, NVMe SNAP (Software-defined Network Accelerated Processing), GPUDirect RDMAInfiniBand-Ethernet шлюз Skyway, СХД-технологии CNEX Labs и Pliops, органично вписываются в стратегию NVIDIA на освоение рынка оборудования для ЦОДов и HPC.

Послесловие

Что ждать в 2020 году? Одними из ключевых факторов роста станут облака, Интернет вещей, сети 5G и связывающие их воедино периферийные вычисления. Растущее разнообразие вычислительных архитектур повлияет на создание всё более гетерогенных и масштабируемых систем. А глобально всё большую роль будет играть ИИ или, если точнее, нейронные сети. Мы уже делились предсказаниями крупных компания и изданий: от Red Hat, Cisco и Network World

Увы, охватить все-все события ушедшего года в одном материале не представляется возможным. Даже SC19 мы оставили в стороне, так как все материалы с конференции отмечены тегом на ServerNews и 3DNews. Что-то могли упустить, про что-то просто забыть. Поделитесь в комментариях, какое событие было самым важным с вашей точки зрения. И не забудьте подписаться на нас, чтобы не пропустить новые материалы, в Я.ДзенTelegramTwitter и LinkedIn. А ещё мы всегда рады новым авторам

Постоянный URL: https://servernews.ru/1001370
17.01.2020 [14:09], Андрей Крупин

ITV Group и Huawei займутся созданием комплексных систем безопасности

Компании ITV Group и Huawei заключили соглашение о сотрудничестве с целью совместной разработки программно-аппаратных комплексов физической безопасности с элементами искусственного интеллекта (ИИ).

Предполагается, что новые решения будут востребованы в крупномасштабных проектах, таких как «Безопасный город» и «Безопасный регион», в интеллектуальных транспортных системах и на объектах транспортной инфраструктуры, а также в других крупных и географически распределённых системах безопасности.

В рамках технологического сотрудничества будет проведена оптимизация работы программного обеспечения ITV Group на аппаратной платформе Huawei — серверах TaiShan, использующих 64-разрядные многоядерные ARM-процессоры общего назначения Kunpeng, разработанные и производимые китайским телекоммуникационным гигантом. В качестве операционной системы предполагается применять специализированную сборку ОС семейства Linux.

Кроме того, партнёры намерены адаптировать и оптимизировать нейросетевые алгоритмы видеоаналитики ITV Group для работы на специализированных ИИ-процессорах Huawei Ascend 310/910, используемых в различных устройствах платформы Huawei Atlas AI.

ITV Group владеет полным циклом создания нейросетевых алгоритмов видеоанализа под требования конкретного проекта. Уже реализованы такие алгоритмы, как детектирование огня и дыма, обнаружение людей в опасных зонах, подсчёт пешеходов и автомобилей для оценки загруженности улично-дорожной сети, обнаружение оставленных предметов в общественных местах и многие другие. Также компания использует в своих продуктах алгоритмы распознавания лиц и автомобильных номеров. Решения ITV Group применяются в российских государственных проектах обеспечения общественной безопасности и на крупнейших предприятиях различных отраслей.

Постоянный URL: https://servernews.ru/1001667
17.01.2020 [14:04], Владимир Мироненко

В Google Cloud появился премиум-план поддержки: всего от $12500 в месяц

Облачный сервис Google Cloud объявил о появлении в службе поддержки Google Cloud Support премиум-плана для корпоративных заказчиков, использующих критичные к сбоям системы.

Новый план объединяет предложения Google по поддержке для Google Cloud Platform (GCP) с премиум-опциями G Suite.

«Премиум поддержка была разработана для того, чтобы лучше удовлетворять потребности наших клиентов, использующих современные облачные технологии, —- пишет в блоге вице-президент Google по поддержке облачных технологий Атул Нанда (Atul Nanda). — И мы вложили средства в улучшение качества обслуживания клиентов благодаря обновлённой модели поддержки, которая является упреждающей, унифицированной, ориентированной на клиента и гибкой для удовлетворения различных потребностей их бизнеса».

Премиум поддержка помогает обеспечить согласованность между планами поддержки для Google Cloud Platform и G Suite; более конкурентоспособный набор функций и услуг; упрощённое ценообразование по сравнению с предыдущими предложениями поддержки Google Cloud; интеллектуальные системы (например, поддержка сторонних технологий, поддержка API и рекомендации); услуги корпоративного класса; взаимодействие с клиентами с учётом контекста, чтобы помочь оптимизировать взаимодействие с пользователем в Google Cloud.

В дополнение к премиум-плану клиенту могут быть предоставлены при необходимости:

  • услуга расширенного управления событиями — для более глубокого анализа архитектуры и повышения готовности к пиковым событиям (приобретается отдельно);
  • расширенное обеспечение технической поддержкой (Technical Account Management, TAM). Глобальные компании, которые нуждаются в поддержке в нескольких часовых поясах, могут получить дополнительную поддержку TAM в рабочее время в других регионах;
  • помощь в поддержке критически важных для бизнеса задач.

Премиум-план обещает 15-минутное время реагирования для ситуаций категории P1 в любое время суток. Речь идёт о ситуации, когда приложение или инфраструктура становятся непригодны для использования. Другие функции включают обучение и обзоры новых продуктов, а также поддержку для устранения неполадок сторонних систем. 

Стоимость премиального плана складывается из обязательного ежегодного платежа $150 тыс. + 4% от расходов на GCP + 4% от расходов на G Suite.

Постоянный URL: https://servernews.ru/1001649
16.01.2020 [23:58], Владимир Мироненко

Lloyds Banking Group воспользуется Microsoft Managed Desktop для цифровой трансформации

Финансовый конгломерат, крупнейший розничный банк Великобритании Lloyds Banking Group (LBG) объявил о стратегическом партнёрстве с Microsoft, направленном на ускорение цифровой трансформации LBG. 

Новый сервис на основе технологий Microsoft предоставит современное цифровое рабочее пространство для всех сотрудников LBG, обеспечив управление десктопами и мобильными устройствами финансового учреждения. На реализацию всего проекта цифровой трансформации для 65 тыс. своих сотрудников банк готов потратить 3 млрд фунтов стерлингов в течение нескольких лет.

Партнёрство включает в себя использование для управления компьютерными системами банка облачной службы Microsoft Managed Desktop (MMD) в составе Office 365 ProPlus. MMD включает средства обновления и обеспечения безопасности Windows 10, поддерживает интеграцию c Azure AD, предлагает средства автоматизации и аналитики и, в целом, позволяет централизованно управлять жизненным циклом всех устройств. 

LBG работает над данным проектом с Microsoft с 2017 года. Внедрение MMD во всех подразделениях LBG сделает его крупнейшим в мире банковским учреждением, запустившим данную технологию. Её будет дополнять облачная платформа Microsoft Azure, используемая для повышения гибкости бизнеса, масштабируемости по требованию и обеспечения более расширенного предложения для клиентов.

Конкурирующий с LBG британский банк HSBC предпочитает сотрудничать с главным конкурентом Microsoft — облачным сервисом Google Cloud, в то время как банк Santander UK вложил $700 млн в развёртывание цифровизации на основе технологий IBM.

Постоянный URL: https://servernews.ru/1001616
Система Orphus