Материалы по тегу: обучение

02.03.2020 [18:53], Андрей Галадей

Microsoft кардинально меняет систему сертификации: MCSA, MCSD и MCSE больше не будет

Начиная с 30 июня 2020 года компания Microsoft прекратит выдачу сертификаций Microsoft Certified Solutions Associate (MCSA), Microsoft Certified Solutions Developer (MCSD) и Microsoft Certified Solutions Expert (MCSE). По данным из официального блога компании, всем, кто пытается получить их, надлежит сдать экзамены до вышеуказанной даты, поскольку их затем также отменят.

При этом те, кто сдал квалификационный экзамен до окончания срока, получат сертификации, которые будут актуальны в течение двух лет, то есть максимум до конца июня 2022 года. Если затянуть со сроками, то сертификации не будет.

Также корпорация отменяет сертификации по Windows Server 2019 и SQL Server 2019. Вместо всего этого будет общая сертификация на основе ролей/специализаций.

Полный список сертификаций, которые отменят с 30 июня, выглядит так:

  • MCSA: BI Reporting
  • MCSA: Dynamics 365 for Operations
  • MCSA: SQL 2016 BI Development
  • MCSA: SQL 2016 Database Admin
  • MCSA: SQL 2016 Database Dev
  • MCSA: SQL Server 2012/2014
  • MCSA: Universal Windows Platform
  • MCSA: Web Applications
  • MCSA: Windows Server 2012
  • MCSA: Windows Server 2016
  • MCSD: App Builder
  • MCSE: Business Applications
  • MCSE: Core Infrastructure
  • MCSE: Data Management & Analytics
  • MCSE: Productivity

Важно отметить, что сертификации Microsoft Office Specialist (MOS) и Microsoft Technology Associate (MTA) пока не будут затронуты этим нововведением. Похоже, что таким образом компания всё больше переводит все корпоративные структуры в облака, что должно упростить администрирование и сделать работу проще. С другой стороны, это обеспечит компанию постоянным притоком денег за счёт платных подписок.

Постоянный URL: http://servernews.ru/1004995
26.12.2019 [12:12], Андрей Галадей

JavaScript, Linux и язык программирования R стали лучшими технологическими навыками в 2019 году

По данным публичной образовательной платформы Pluralsight, лучшими технологическими навыками в 2019 году стали JavaScript, Linux и язык программирования R. Эти данные были собраны по результатам анализа сайтов Indeed и Dice, а также по данным клиентов самой Pluralsight.

Шон Фаррингтон (Sean Farrington), вице-президент Pluralsight, заявил, что за последний год максимальный спрос был на те навыки в области технологий, которые существуют уже долгое время. Будь то Java, HTTP, Python, C++ или SQL, они касаются веб-разработки и сетевых проектов.

pixabay.com

pixabay.com

При этом растёт спрос на специалистов в области работы с данными. Это и искусственный интеллект, и машинное обучение, и вопросы цифровой безопасности. Потому неудивительно, что наиболее популярным стал язык программирования R, а также ОС Kali Linux.

При этом отмечается, что некоторые из наиболее изученных навыков 2019 года не совпадают с наиболее востребованными. Это может означать, что они понадобятся в будущем. В их числе есть SQL, HTTP, Microsoft SQL Server, а также CISSP. Что касается других средств разработки, то самым популярным стал Python, за ним идут Angular и JavaScript.

В целом же, по данным Pluralsight, специалистам в области информационных технологий нужно стремиться развивать свои навыки, иначе они останутся позади уже в будущем году.

Постоянный URL: http://servernews.ru/1000466
20.11.2019 [08:49], Алексей Степин

SC19: новые серверы GIGABYTE для сферы машинного обучения

Сфера машинного обучения и ИИ-сервисов переживает бурный расцвет. Неудивительно, что разработчики новых ИИ-процессоров и производители серверного оборудования наперебой спешат представить свои новинки на проходящей сейчас конференции SC19.

Одним из таких производителей стала компания GIGABYTE ‒ она, как и большинство других производителей игрового «железа», имеет в своём составе и серверное подразделение. На выставку GIGABYTE привезла множество новых систем, которые пополнят серию серверов G-Series.

Второе поколение процессоров AMD EPYC позволило существенно уплотнить вычислительные мощности благодаря наличию новых 64-ядерных моделей. GIGATYTE воспользовалась этим и в числе прочего представила модели серверов G292-Z22 и G292-Z42 с одним и двумя процессорными разъёмами соответственно. Системы компактны, они используют корпуса высотой всего 2U, но при этом поддерживают установку до восьми ускорителей, таких, как NVIDIA Tesla V100. Имеется также 8 дисковых отсеков формата 2,5″, часть из которых поддерживает 2 либо 4 накопителя с интерфейсом NVMe.

GIGABYTE G292-Z20: один EPYC, восемь ускорителей в боковых тоннелях. Поддерживается PCIe 4.0

Несмотря на компактность, эти системы имеют очень продуманную систему охлаждения. Процессоры в серверах такого класса вырабатывают отнюдь не основную долю тепла, а главным источником являются ускорители, будь то GPU или специализированные чипы. Поэтому платы ускорителей размещаются в двух параллельных и прекрасно продуваемых тоннелях слева и справа от системной платы.

GIGABYTE G242-Z10: вид вблизи

Пока речь идёт о поддержке PCIe 3.0, но в начале следующего года GIGABYTE представит модели G292-Z20 и G292-Z40, в которых будет задействована шина PCIe 4.0. Но на выставке SC19 эти новинки уже демонстрируются, как и совсем компактная модель G242-Z10, также с поддержкой нового стандарта. Несмотря на малые габариты, эта модель может вместить в себя четыре полноразмерных ускорителя. Выставочный экземпляр был оснащён платами Radeon Instinct.

GIGABYTE G242-Z10: самый компактный вариант с четырьмя полноразмерными Radeon Instinct с интерфейсом PCIe 4.0

Следующие новинки, серверы G482-Z50 и G482-Z51, уже нельзя назвать компактными: они используют корпуса высотой 4U. Первая модель интересна тем, что поддерживает установку уже 10 плат-ускорителей, причём, каждые 5 из них общаются с процессором через коммутатор PCIe, поддерживающий прямую передачу данных от GPU к GPU. Развита здесь и подсистема хранения данных: имеется 12 полноразмерных отсеков SATA/SAS и 10 отсеков формата 2,5″ с поддержкой SATA/SAS либо NVMe. По сути, это готовая универсальная платформа, отлично подходящая и для задач машинного обучения.

GIGABYTE G482-Z51: отличная платформа для машинного обучения. До 8 ускорителей Radeon Instinct, поддержка PCIe 4.0

А вот в модели G482-Z51 возможности, на первый взгляд, несколько скромнее: мест для установки плат-ускорителей тут всего 8, но зато этот сервер является одним из первых на рынке x86-серверов с «родной» поддержкой PCIe 4.0 ‒ здесь карты подключаются напрямую к центральным процессорам. Эту систему GIGABYTE считает идеально подходящей для комплектации ускорителями AMD Radeon Instinct MI50, которые как раз поддерживают новый стандарт PCIe и при установке восьми карт могут обеспечить производительность до 216 Тфплос в задачах обучения, использующих формат FP16.

GIGABYTE G482-Z51, вид сверху. 16 слотов DIMM на процессор не оставят систему без памяти. В левом нижнем углу - скоростной сетевой адаптер

Компания также представила в новой серии «лезвие» T181-Z70. Оно выполнено в форм-факторе, разработанном в рамках инициативы Open Compute Project и устанавливается в OCP-стойку с габаритами 21″ и собственным блоком питания. В итоге в корпус высотой 1U удалось вместить два процессора AMD EPYC второго поколения и до четырёх полноразмерных плат-ускорителей. Нашлось здесь место и для четырёх дисковых отсеков формата 2,5″ и даже для дополнительного слота расширения ‒ он предназначен для установки высокоскоростных сетевых карт нового поколения. Новинка совместима с прочими продуктами GIGABYTE RACKLUTION-OP, использующими новый форм-фактор OCP.

GIGABYTE T181-Z70: вклад компании в развитие открытых стандартов. Фото GIGABYTE

Демонстрирует компания также новую модульную гиперконвергентную систему ‒ H262-Z61. Каждый её модуль очень компактен, шасси высотой 2U может вместить сразу четыре таких модуля. При этом конфигурация его очень серьёзна: два процессорных разъёма c поддержкой AMD EPYC второго поколения и два слота PCIe 4.0 x16 для установки ускорителей. Кроме того, возможна установка мезаниновых плат формата OCP 2.0 и шести накопителей NVMe формата 2,5″.

GIGABYTE H262-Z61, один модуль из четырёх

Несмотря на активный натиск со стороны AMD EPYC, не забыла GIGABYTE и о процессорах Intel Xeon Scalable второго поколения. На их основе построены системы G241-G40 и G591-HS0. Первая модель выглядит достаточно обычно, она выполнена в корпусе высотой 2U и может нести на борту до четырёх полноразмерных ускорителей. Воздухообмен хорошо продуман, и сервер поддерживает установку даже карт с пассивными радиаторами. Имеется четыре полноразмерных дисковых отсека и два слота M.2 для установки твердотельных накопителей NVMe.

GIGABYTE G241-G40. Фото GIGABYTE

Система G591-HS0 относится к совсем иному классу: это огромный сервер высотой 5U, имеющий в задней части корпуса два специальных выдвижных отсека. Каждый из таких отсеков может принять в себя по 20 карт расширения половинной высоты. Используются специальные коммутаторы PCIe 3.0, поскольку даже два процессора Xeon Scalable просто не могут дать нужного количества линий.

G591-HS0: уникальные возможности расширения. Фото GIGABYTE

Ввиду того, что сейчас активно развиваются альтернативные ускорители на базе ПЛИС или специальных ASIC, которые могут быть достаточно компактными, данный сервер является идеальной платформой для организации мощной системы на базе таких ускорителей. К примеру, это может быть система анализа видео в реальном времени. Более того, с помощью дополнительного модуля расширения к G591-HS0 можно подключить ещё 32 однослотовых, но полноразмерных ускорителя.

G591-HS0: вид со стороны корзин расширения. Фото GIGABYTE

Все новые системы GIGABYTE поддерживают систему удалённого управления GIGABYTE Management Console, в основе которой лежит веб-платформа AMI MegaRAC SP-X. Новое поколение iKVM использует стандарт HTML5 и полностью отвечает стандартам Redfish API, оно также полностью бесплатно и не требует приобретения каких-либо дополнительных лицензий. Имеется также сервисная утилита GIGABYTE Server Management в версии как для обычных ПК, так и для мобильных устройств.

Постоянный URL: http://servernews.ru/997913
11.11.2019 [23:32], Сергей Юртайкин

Расходы на инфраструктуру для машинного обучения скоро превысят $10 млрд

Аналитическая компания Intersect360 Research опубликовала пару новых исследований, посвящённых главным технологическим тенденциям в области искусственного интеллекта и машинного обучения.

В докладе Worldwide AI and Machine Learning Training Market Model: 2018 Spending and Future Outlook говорится, что за последние два года глобальные расходы на инфраструктуру, необходимую для создания моделей машинного обучения росли более чем на 50 % ежегодно, а скоро они превысят $10 млрд.

«Машинное обучение находится на стадии очень высокого роста, — говорит генеральный директор Intersect360 Research Аддисон Снелл (Addison Snell). — В дополнение к этим $10 млрд многие системы, которые не на 100 % предназначены для машинного обучения, удовлетворяют потребности в обучении в рамках общих рабочих процессов, увеличивая степень влияние, которое машинное обучение оказывает на расходы и конфигурацию». По словам эксперта, искусственный интеллект — это основная тенденция в ИТ-отрасли, а не рынок в привычном смысле этого слова.

В другом исследовании — HPC User Budget Map Survey, Special Report: Machine Learning’s Impact on HPC Environments — аналитики отмечают, что 61 % опрошенных компаний используют программы машинного обучения в составе или дополнении к средам для высокопроизводительных вычислений. Ещё 10 % респондентов планируют внедрить машинное обучение в течение ближайшего года.

Постоянный URL: http://servernews.ru/997441
06.11.2019 [08:02], Сергей Юртайкин

Red Hat добавила машинное обучение в систему оптимизации бизнес-процессов

Вышла новая версия системы для оптимизации бизнес-процессов Red Hat Process Automation Manager. В ней появилась предиктивная аналитика, построенная на машинном обучении.

Решение Red Hat Process Automation Manager (прежнее название — JBoss Business Process Management Suite) позволяет компаниям оцифровать бизнес-политики и процедуры, автоматизировать бизнес-процессы и вести мониторинг результатов операций в гетерогенных вычислительных средах, включая физические, виртуальные, мобильные и облачные.

В обновлённой системе реализована автоматизация принятия решений с использованием искусственного интеллекта. Предиктивная аналитика может применяться в приложениях для управления решениями в рамках создания умных автоматизированных систем, умеющих интерпретировать и реагировать на изменчивую динамику рынка, указывается в пресс-релизе.

Также Red Hat Process Automation теперь может импортировать и выполнять прогнозные модели на языке PMML, который является отраслевым стандартом для интеграции и обмена информацией между платформами машинного обучения, где создаются и обучаются эти модели.

В Red Hat отмечают, что повышение прозрачности и контроля над процессами принятия решений делает работу ИИ-систем более объяснимой и помогает лучше выполнять нормативные требования.

Постоянный URL: http://servernews.ru/997012
24.10.2019 [11:35], Сергей Юртайкин

Разработчика ПО для анализа больших данных Databricks оценили в $6,2 млрд

Разработчик решений для анализа больших данных Databricks объявил о привлечении $400 млн инвестиций, в результате чего общий объём полученных компанией средств достиг $900 млн.

По итогам последнего на данный момент раунда финансирования стартап был оценен в $6,2 млрд против $2,75 млрд в феврале 2019-го. В октябре в Databricks вложились как действующие инвесторы (Microsoft и Andreessen Horowitz), так и новые (Tiger Global Management, BlackRock и T. Rowe Price Group).

Главным продуктом Databricks является Unified Analytics Platform. Это фреймворк с открытым исходным кодом, который используется компаниями для анализа данных, а также для разметки наборов данных с целью построения ИИ-моделей. 

Решение Databricks также предоставляет возможности для совместной работы. Оно обеспечивает тесное взаимодействия между специалистами по обработке данных и разработчиками, которым необходимо работать вместе для создания более совершенных моделей искусственного интеллекта.

Постоянный URL: http://servernews.ru/996137
14.10.2019 [12:24], Владимир Мироненко

NVIDIA использовала федеративное машинное обучение при создании ИИ для здравоохранения

NVIDIA анонсировала систему машинного обучения ИИ для анализа медицинских изображений с сохранением конфиденциальности, которая была разработана совместно со специалистами Королевского колледжа Лондона.

Новая система представлена на стартовавшей в воскресенье в Шэньчжэне (Китай) конференции MICCAI.

У искусственного интеллекта есть ряд потенциально важных областей применения в здравоохранении, от диагностики пациентов до разработки жизненно важных лекарств. Вместе с тем обучение надёжных нейронных сетей для приложений здравоохранения затруднено, так как для этого требуется использовать огромные объёмы персональных данных пациентов, сохраняя при этом их конфиденциальность.

Эту проблему позволяет решить метод федеративного машинного обучения, предложенный специалистами Google, который позволяет применять единую модель для прогнозирования при машинном обучении, но при этом не раскрывать используемые данные пациентов.

Вместо того, чтобы полагаться на данные, объединённые в одном месте, алгоритмическая модель обучается в нескольких вариантах в разных местах. В секторе здравоохранения это обеспечивает определённую степень конфиденциальности для больниц и других организаций, которые хотят объединить свои ресурсы для создания модели глубокого обучения, не передавая данные своих пациентов третьим лицам.

Исследователи из NVIDIA и Королевского колледжа Лондона использовали федеративную архитектуру клиент-сервер с центральным сервером для поддержки глобальной глубокой нейронной сети. При таком подходе участвующим больницам будет предоставлена ​​копия их нейронной сети для обучения по их собственному набору данных.

Постоянный URL: http://servernews.ru/995564
02.10.2019 [11:22], Геннадий Детинич

Один нейропроцессор Alibaba Hanguang 800 заменяет 10 GPU-ускорителей

Как мы сообщали около недели назад, компания Alibaba представила фирменный NPU Hanguang 800 для запуска нейросетей в составе облачных сервисов компании. Например, данные NPU могут обеспечить рекомендательные услуги для пользователей или анализ видео с камер наблюдения в реальном времени.

В продажу Hanguang 800 не поступят. Компания намерена использовать разработку в собственных ЦОД. С одной стороны, это программа по импортозамещению. С другой ― аналогов Hanguang 800 пока нет, в чём нас уверяет Alibaba.

Итак, 12-нм NPU Hanguang 800 ― это самый большой из разработанных Alibaba чипов с 17 млрд транзисторов. Точнее, процессор разработан подразделением T-Head этой интернет-компании (ране ― Pingtouge Semi). В основе разработки лежит архитектура и набор команд RISC-V с открытым кодом. Подобное обстоятельство, как уверены в Alibaba, поможет быстрому распространению интереса к платформе со стороны независимых разработчиков.

Нейропроцессор Hanguang 800 входит в семейство производительных ИИ-чипов Xuantie (Black Steel). Название платформы для ускорителя ― Wujian (Уцзян).

Платформа представляет собой плату с интерфейсами и контроллерами ввода/вывода, бортовой памятью и набором необходимых кодеков. Вместе с аппаратной частью поставляется полный пакет программного обеспечения от драйверов и прошивки до операционной системы, библиотек и примеров. Бери и дерзай.

Программная поддержка представляется Alibaba тем козырем, которого нет в рукаве у чисто «железячных» разработчиков. Кстати, Hanguang 800 спроектирован менее чем за год, что впечатляет.

Согласно внутренним тестам компании, инференс Hanguang 800 на стандартном тестовом наборе ResNet-50 способен обработать 78,5 тысяч изображений в секунду или 500 изображений в секунду на ватт. Это в 15 раз быстрее, чем в случае ускорителя NVIDIA T4 и в 46 раз быстрее NVIDIA P4. Даже если Alibaba преувеличила свои достижения, а независимых тестов у нас нет, результат всё равно впечатляет.

Если сравнивать возможности Hanguang 800 с компьютерной производительностью, то, по словам разработчиков, один NPU Hanguang 800 эквивалентен по результативности 10 «обычным» графическим процессорам. Эти решения, как мы отметили выше, компания будет использовать для собственных нужд, как и TPU в компании Google или AWS Inferentia в Amazon. У компании Alibaba это облачные сервисы Aliyun.

Постоянный URL: http://servernews.ru/994970
11.09.2019 [09:17], Андрей Галадей

В LLVM включат Google MLIR для ускорения работы с ИИ

Компания Google уже не первый месяц разрабатывает MLIR — Многоуровненвое Промежуточное Представление (Multi-Level Intermediate Representation). Проект должен помочь портировать и оптимзировать ПО для машинного обучения. И теперь его добавляют в LLVM.

Разработкой MLIR занимается основатель LLVM Крис Латнер (Chris Latner), а потому слияние было лишь вопросом времени.

wikipedia.org

wikipedia.org

Заявлено, что проект поддерживает решения крупнейших компаний по разработке программного и аппаратного обеспечения: AMD, ARM, Cerebras, Graphcore, Habana, IBM, Intel, Mediatek, NVIDIA, Qualcomm Technologies, Inc, SambaNova Systems, Samsung, Xiaomi, Xilinx. 

При этом предполагается, что MLIR ускорит развитие машинного обучения и искусственного интеллекта, позволит обучать и исполнять модели на любом оборудовании, и делать это легче.

Напомним, что LLVM представляет проект инфраструктуры для создания компиляторов и сопутствующих утилит. Он включает ряд компиляторов языков для высокого уровня и способен создавать машинный код для множества архитектур.

Постоянный URL: http://servernews.ru/993866
05.09.2019 [14:29], Сергей Карасёв

IDC: затраты в сфере ИИ-систем приблизятся к $100 млрд в 2023 году

Аналитики International Data Corporation (IDC) прогнозируют, что затраты в области искусственного интеллекта (ИИ) и машинного обучения в ближайшие годы будут расти высокими темпами.

По итогам текущего года, как ожидается, глобальные расходы в сфере ИИ-систем достигнут $37,5 млрд. Лидирующими секторами в плане затрат станут банковский сегмент и розничная торговля: в каждой из этих областей затраты в 2019-м превысят $5 млрд.

В период с 2018 по 2023 гг. показатель CAGR (среднегодовой темп роста в сложных процентах) на мировом рынке систем искусственного интеллекта прогнозируется на уровне 28,4 %. В результате в 2023-м объём отрасли вплотную приблизится к знаковой отметке в $100 млрд, составив $97,9 млрд.

С географической точки зрения крупнейшим рынком по объёму затрат в области ИИ будут оставаться Соединённые Штаты с долей более 50 %. На втором месте расположится Западная Европа, на третьем — Китай.

Наиболее высокий показатель CAGR в период до 2023 года прогнозируется у Японии и Китая — 45,3 % и 44,9 % соответственно. 

Постоянный URL: http://servernews.ru/993579
Система Orphus