Материалы по тегу: прогнозы

09.04.2018 [12:00], Сергей Карасёв

Gartner: глобальные затраты в IT-сфере превысят $3,7 трлн в 2018 году

Компания Gartner обнародовала прогноз по глобальному рынку информационных технологий (IT) на текущий и следующий годы.

По оценкам, объём отрасли в прошлом году составил приблизительно $3,52 трлн. Это на 3,8 % больше по сравнению с предыдущим годом, когда затраты в мировом масштабе оценивались в $3,39 трлн.

В текущем году, как ожидается, рынок покажет рост в 6,2 %. В результате, объём отрасли достигнет $3,74 трлн.

Gartner отмечает, что на системы для центров обработки данных в нынешнем году придётся $188 млрд. Затраты в сегменте программного обеспечения корпоративного класса составят $391 млрд. Объём сегмента IT-сервисов окажется на уровне $1 трлн. Наконец, ещё $1,45 трлн принесут коммуникационные сервисы.

Отмечается также, что спрос на компьютерные устройства — настольные системы и ноутбуки, планшеты и сотовые аппараты — достигнет в текущем году $706 млрд. Это будет соответствовать росту в 6,6 % по сравнению с предыдущим годом.

В 2019 году, согласно прогнозам аналитиков Gartner, глобальные затраты в IT-сфере увеличатся на 2,8 %. В результате, объём отрасли достигнет $3,85 трлн. 

Постоянный URL: http://servernews.ru/968161
23.09.2017 [16:00], Алексей Степин

HGST оценила состояние индустрии накопителей HDD и SSD

Компания HGST, образованная в 2003 году слиянием дискового подразделения IBM и Hitachi, и в настоящее время принадлежащая Western Digital, выступила на конференции SelectelTechDay #2 с докладом, посвящённым современному состоянию индустрии накопителей — как традиционных механических жёстких дисков, так и твердотельных решений на базе энергонезависимой памяти. 

По состоянию на 2017 год Western Digital принадлежит как HGST, так и SanDisk, а по объёму квартальной выручки компания занимает первое место среди конкурентов ($4,7 миллиарда против $4,2 млрд у ближайшего соперника — Samsung), так что она имеет все основания для того, чтобы оценивать индустрию накопителей в целом. Более того, по количеству баллов Western Digital (8694) уступает только Google (18554) и Apple (10545), занимая третье место в списке рейтинга IEEE Power Six, который отражает инновационность, ценность и оригинальность новых патентов компании за год.

Многие считают, что уход традиционных механических HDD в историю уже не за горами, и их заменят более удобные, экономичные, а главное — более быстрые на случайных операциях SSD. Однако Western Digital так не считает. Да, тенденция к замене HDD на SSD есть, но проявляется она в основном на рынке клиентских решений, и то не везде и не всегда, а вот в секторе корпоративных решений жёсткие диски будут жить ещё очень долго, и объём поставок таких дисков к 2020 году продолжит расти. А вот в клиентском секторе объёмы продаж HDD будут падать, а SSD — быстро расти.

Компания приводит любопытное сравнение: если выразить объём данных, генерируемых нашей цивилизацией в год — а это 1000 экзабайт — как Землю, то SSD в настоящее время на этом фоне выглядит не больше Луны. Твердотельные решения не покрывают и 10 % требуемого объёма хранения. Более того, развеивается представление о жёстком диске, как о чём-то простом: на самом деле это одна из самых точных механических машин, которые производятся в нашем мире серийно. Если верить докладчику, в современных моделях HDD точность позиционирования головок составляет порядка 10 нм — величина, сопоставимая с размерами транзистора в соответствующем техпроцессе. Интересно, что экологические ниши HDD со скоростью вращения шпинделя 10‒15 тысяч оборотов стремительно сокращаются.

Такие диски весьма совершенны, но обычно не имеют большого объёма и активно вытесняются SSD, но для HDD остаётся одна огромная ниша — та, где требуется именно большой объём. Фактически, большая часть данных земной цивилизации ещё долго будет лежать на плечах классических HDD со скоростью вращения шпинделя 7200 об/мин, что потребует увеличения их объёмов. Тут, однако, вступает в дело так называемая «трилемма магнитной записи». Критический предел плотности записи (1 Тбит на кв. дюйм) уже практически достигнут и уменьшать размеры частиц магнитного слоя практически некуда. С уменьшением их размера падает термостабильность — нужны новые материалы, на которых при повышении температуры упорядоченная запись не будет превращаться в хаос.

Такие материалы есть или разрабатываются. В теории они позволят нарастить ёмкость одного HDD до 40 Тбайт или даже более. Но стандартной классической головке HDD просто не хватит силы развиваемого ею магнитного поля, чтобы нормально намагничивать зону записи, а ведь если верить докладу, речь идёт о плотности магнитного потока порядка 1 Тесла. Это огромная величина. Для сравнения, ряд аппаратов МРТ имеет плотность от 1,5 до 3 Тесла (правда, речь идёт о гораздо более крупных магнитах). Таким образом, возникает тупиковая ситуация.

Вариантов решений и выхода из вышеописанной ситуации здесь несколько, большая часть эволюционных версий уже освоена: это и увеличение количества пластин на шпиндель, и использование гелиевых гермоблоков, и новые типы записи — двухмерная (TDMR) и черепичная (SMR). Есть вариант с введением форм-фактора 3,5″ двойной высоты, но он, скорее всего, не «взлетит», поскольку потребует переделки всех корпусов дисковых полок, серверов и СХД. Корпоративный сектор довольно консервативен и предпочитает придерживаться проверенных временем форм-факторов. HGST создала прототипы таких дисков, но в массовое производство они не пошли. А стандартный трёхдюймовый вариант ограничен по количеству пластин: более восьми в него уместить невозможно чисто физически.

С эволюционными решениями всё хорошо: гелиевые гермоблоки находятся массово в эксплуатации уже 4 года и доказали свою надёжность, несмотря на то, что этот газ обладает таким неприятным свойством, как чрезвычайно высокая способность к диффузии — проникновению между молекулами других веществ. К текущему моменту отгружено уже более 20 миллионов HDD с такими гермоблоками, они установлены и активно используются в крупнейших мировых ЦОД. Заявленный показатель наработки на отказ в 2,5 миллиона часов подтверждён, что называется, в полевых условиях. Лучшим диском HGST называет Ultrastar He12, и не зря: он обладает огромной ёмкостью, потребляет меньше, чем решения с классическим гермоблоком, и при этом весьма надёжен.

Черепичная запись (SMR) тоже активно используется в современных жёстких дисках большой ёмкости. Суть её проста и видна из слайда: дорожки при такой записи формируются как бы «наползающими» друг на друга, что экономит поверхность пластины HDD, а значит, повышает плотность записи. Особенно сложных технологий SMR не требует, а значит, снижается и удельная стоимость хранения данных. Но у SMR есть недостатки: в силу самой технологии информацию с таких дисков можно читать как последовательно, так и случайными блоками, а вот запись обязательно должна вестись последовательно, иначе пострадают соседние дорожки. Это существенно снижает скоростные характеристики таких решений, так что ниша дисков с SMR — это системы архивации (холодная зона) и «тёплая» зона (nearline storage). В последнем случае нагрузка должна носить потоковый, линейный характер.

Есть в области магнитной записи и революционные решения, среди них ближе всего к реализации так называемая термомагнитная запись (HAMR). О ней мы писали ещё несколько лет назад. Принцип HAMR открывает дорогу к созданию HDD объёмом 20 и более Тбайт, но технология «головок с лазерным подогревом зоны записи» до сих пор не может выйти за пределы лабораторий. Сама по себе она работоспособна и это доказано экспериментально. Но выявлен ряд проблем: так, например, пока не получается сфокусировать лазерный луч с пятном диаметром менее 50 нм (а точность позиционирования головки, напоминаем, составляет около 10 нм).

Пока достигнута точность фокусировки порядка 120‒130 нанометров, но этого недостаточно. Поэтому систему «подогрева» пришлось существенно усложнить: теперь лазер не облучает магнитную пластину непосредственно. Передача энергии осуществляется с помощью цепочки «лазер‒волновод‒плазмонная антенна». Антенна выполнена из золота, которое хорошо проводит частоты порядка терагерц, её геометрия такова, что возникает стоячая волна, которая и позволяет достичь нужного размера подогреваемого пятна на магнитной пластине. Система работает, но, например, тонкая плазмонная антенна быстро оплавляется, так что лабораторный срок службы головки пока в разы меньше необходимого. Кроме того, мировое производство твердотельных лазеров нужных габаритов и мощности недостаточно велико для массового выпуска HAMR-дисков.

Существуют и более экзотические технологии: так, вместо лазерного излучения для подогрева зоны записи предлагается использовать микроволновый пучок (MAMR), но создание столь компактных микроволновых излучателей под вопросом. Есть направления так называемой «битовой литографии» и записи «на подогретые точки», но о последних пока мало что известно, и судя по всему, данные технологии пока не вышли дальше закрытых лабораторных исследований.

С жёсткими дисками всё более-менее понятно: поставки в клиентском секторе будут падать, но корпоративный сегмент по-прежнему будет в основном полагаться на всё более ёмкие модели HDD. Относительно NAND тоже был сделан ряд интересных заявлений. Во-первых, производителей флеш-памяти в мире осталось не так много: WDC/SanDisk, Toshiba, SK Hynix, Micron, Samsung и Intel, причём на долю альянса WDC‒Toshiba приходится 40 % мирового производства NAND-устройств, вторую строчку занимает Samsung с 38 %. Однако спрос на рынке флеш-памяти по-прежнему превышает предложение, хотя все производители стараются как можно быстрее нарастить производственные мощности в этой области.

Кроме того, нехватка NAND вызвана задержкой производителей, вызванной переходом с производства планарной флеш-памяти на объёмную 3D NAND. В игру собирается вступить КНР, а именно компания XMC, но поставки 32-слойной 3D NAND, выполненной по технологиям Spansion, ожидаются не ранее следующего года, да и на проектную мощность 300 тысяч пластин в месяц фабрика выйдет лишь к 2020 году. Есть в области производства флеш-памяти и свои проблемы, в чём-то они похожи на проблемы, описанные выше применительно к развитию технологий HDD.

До появления 3D NAND рост ёмкости чипов флеш-памяти шёл за счет применения всё более тонкой литографии и увеличения количества хранимых в одной ячейке бит. Напомним, каждый бит требует двух уровней заряда, определяющих, хранится ли в данной ячейке 0 или 1. MLC требует уже четырёх уровней заряда, а TLC и вовсе восьми уровней, что отнюдь не ведёт к повышению надёжности, ведь заряды имеют свойство дрейфовать. В переход на более тонкие техпроцессы вкладывались огромные деньги, но одновременно «ударными темпами» вновь падала надёжность. Если для ранней 32-нм SLC количество электронов на уровне составляло порядка 200, то для 15-нм TLC этот показатель равен всего 8 электронам! Именно их объём определяет надёжность хранения бита в ячейке флеш-памяти, ведь чем меньше электронов — тем больший негативный эффект могут оказать шумы и дрейф заряда, а значит, требуются более сложные и ресурсоёмкие схемы коррекции ошибок.

Но с появлением 3D NAND эволюцию планарной NAND можно считать законченной. Произошла революция, и эта революция решила практически все проблемы, связанные с уменьшением норм техпроцессов. Существенно возросло количество электронов на уровень записи — до 900 в случае SLC-варианта, а это более чем в два раза надёжнее даже планарной 45-нм SLC. Снизилось количество взаимных помех между ячейками, а для программирования страницы (блока) теперь требуется меньше времени и энергии. Конечно, по мере внедрения более тонких техпроцессов количество электронов на уровень будет падать и у 3D NAND, но запас прочности у нового типа памяти очень велик, что подтверждают ресурсные испытания, проведённые нами.

Рост цен на флеш-память похоже, объясняется ещё и тем, что 2017 год является переходным для всех производителей NAND. Впервые объём произведённой 3D NAND превысил объёмы производства классической 2D NAND. Начался лавинообразный переход всех производств с планарной на трёхмерную флеш-память, а мгновенно такие масштабные действия не совершаются. Перестройка фабрик и переналадка производственных линий требуют времени и денег. По некоторым прогнозам, дефицит несколько снизится к третьему кварталу 2018 года, но с этими прогнозами согласны не все, хотя и другие аналитики считают, что такого взрывообразного дефицита больше не будет.

В целом, состояние индустрии, описанное HGST, выглядит вполне логичным и закономерным. Жёсткие диски не умирают, но все усилия разработчиков фокусируются в области увеличения их объёма, поскольку по прочим характеристикам HDD уже не могут конкурировать с SSD. Продолжится внедрение гелиевых гермоблоков и SMR, но появления революционных технологий, таких как HAMR, похоже, откладывается — разработчикам предстоит увеличить срок службы лазерных головок на несколько порядков. Что касается SSD, то здесь всё просто: 2D NAND тотально вытесняется 3D NAND — последняя не только надёжна, но и выгодна, особенно в новых поколениях с увеличенным количеством слоёв. Прогнозируется массовое появление таких монстров, как SSD ёмкостью 8 и более Тбайт. Снизится показатель DPWD, но на фоне увеличения ёмкости проблемы это не представляет: перезаписать 25 раз в день в течение пяти лет такой накопитель практически невозможно физически, утверждается в докладе HGST. Нормой будет показатель DPWD в пределах 3‒10 перезаписей в день.

Постоянный URL: http://servernews.ru/958935
12.09.2017 [21:10], Алексей Степин

Ethernet: этапы развития и прогнозы

Рынок коммутаторов Ethernet довольно предсказуем. За последнее десятилетие образовалось своеобразное правило: десятикратное увеличение скорости при трёхкратном росте цены. Однако это правило споткнулось на отметке 100 Гбит/с — на момент появления решений, способных работать с такими скоростями, они оказались слишком дорогими, и большинство клиентов решили придерживаться более доступного стандарта 40 Гбит/с. Сегодня 100 Гбит/с понемногу становится сравнительно доступным решением, но, похоже, этот стандарт уже опоздал: объёмы хранения данных и требования к пропускной способности сетей растут быстрее нежели производительность реальных сетевых устройств.

Стандарт 40G менее эффективен, нежели 25G

Стандарт 40G менее эффективен, нежели 25G

Стандарт Gigabit Ethernet появился в 1998 году, следующая итерация — 10GbE увидела свет в 2002 году. Этот стандарт был быстро принят владельцами серверных центров, СХД и ЦОД. Но переход на 100 Гбит/с в течение обычных 3‒4 лет не состоялся. Произошло это потому, что разработчики вовремя не справились с разработкой сигнальных линий со скоростью передачи 25 Гбит/с, и производители серверного оборудования вместо этого взяли за основу линии со скоростью 10 Гбит/с и создали стандарт 40 Гбит/с, который был принят крупными клиентами просто потому, что потребности в таких скоростях уже назрели, а стандарт 100 Гбит/с задерживался. Но применение линий с пропускной способностью 25 Гбит/с выгоднее в плане эффективности использования имеющихся ресурсов и даже в количестве доступных портов в пересчёте на коммутатор.

Текущий прогноз IEEE Ethernet Working Group

Текущий прогноз IEEE Ethernet Working Group

Таблица, опубликованная Alcatel‒Lucent, приведённая в начале заметки, это подтверждает. Подсчитано, что с использованием сигнальных линий стандарта 25 Гбит/с для соединения 100 тысяч серверов потребуется 1042 коммутатора (3,2 Тбайт, 96 портов 25 Гбит/с, 8 портов 100 Гбит/с). Скорость, будет не столь быстрой как в системах класса 40G, но для увеличения сетевой пропускной способности до 50 Гбит/с потребуется всего 2084 коммутатора, в то время как аналогичный по вместимости ЦОД на базе технологий 40G потребует 3572 коммутатора, каждый из которых, к тому же, будет загружен не полностью. Но здесь стоит поговорить о будущем. Вычислительные мощности растут, растут объёмы хранимых данных, а значит, и 100 Гбит/с — не предел. Прогнозы 2007 года в 2017-м выглядят довольно забавно: в 2013-м мы должны были получить 400 Гбит/с, а в 2015 году — уже 1 Тбит/с.

Закон Мура по отношению к сетевым ASIC

Закон Мура по отношению к сетевым ASIC

В 2012 году прогнозы несколько изменились. IEEE Ethernet Working Group опубликовала любопытный график, из которого следует, что скорость 1 Тбит/с потребуется крупным ЦОД в 2015 году, а в 2020-м появятся сетевые устройства с производительностью 10 Тбит/с. 2015 год уже миновал. У нас нет оборудования класса 400 Гбит/с, а тем более — класса 1 Тбит/с. Но в целом, отставание роста пропускной способности сетей от вычислительных мощностей ЦОД пройдено — теперь сетевые технологии вновь развиваются быстрее. Пропускная способность сетевых ASIC, используемых в коммутаторах, удваивается примерно каждые 18 месяцев, однако, её рост сдерживается технологическими причинами, например, размером чипов. Для соответствия закону Мура от производителей таких ASIC потребуется переход на сигнальные линии 50 Гбит/с примерно в 2018 году и дальнейшее их развитие до скорости 100 Гбит/с к 2020 году. А это означает создание чипов с совокупной пропускной способностью 25,6 Тбит/с.

Ближайшее будущее Ethernet

Ближайшее будущее Ethernet с учётом прогресса в пропускной способности сигнальных линий

Ожидается, что классического десятикратного скачка не произойдёт — то есть, решений с 10 линиями 100 Гбит/с в 2020 году мы не увидим. Скорее, будут заполняться лакуны (1x, 4x и 8x). На вышеприведённой диаграмме хорошо видно, что, играя с количеством сигнальных линий, будет нетрудно получить скорости 200, 400 и даже 800 Гбит/с. Такой выбор позволит оптимизировать стоимость сетевой инфраструктуры новых ЦОД, кластеров и суперкомпьютеров. Скорости порядка 800 Гбит/с и, вероятно, 1,6 Тбит/с получат применение в районе 2020 года или позднее. С учётом развития полупроводниковых технологий, новые прогнозы и карты развития стандарта Ethernet будут опубликованы в следующем году.

Постоянный URL: http://servernews.ru/958398
04.08.2017 [16:16], Андрей Крупин

Экономический эффект от внедрения IoT-технологий в России может составить порядка 2,8 трлн рублей

Концепция Интернета вещей (Internet of Things, IoT), предполагающая объединение в сеть всевозможных потребительских и промышленных устройств, их взаимодействие друг с другом и внешней средой, находит всё более широкое применение в самых разных отраслях экономики России. По оценкам аналитиков компании PricewaterhouseCoopers (PwC), к 2025 году кумулятивный эффект от внедрения IoT-решений в шести ключевых областях — электроэнергетике, здравоохранении, сельском хозяйстве, транспортировке и хранении грузов, в сегментах «умного города» и «умного дома» составит порядка 2,8 триллионов рублей. Прежде всего, это произойдёт за счёт экономии затрат на техническое обслуживание и ремонт производственных активов, повышения энергоэффективности производств, зданий и сооружений; оптимизации транспортных и логистических потоков; повышения эффективности производственных процессов.

По данным всемирного исследования PwC Digital IQ за 2017 год, IoT занимает первое место среди восьми прорывных технологий, способных изменить бизнес-модели компаний или целых индустрий, опережая в этом рейтинге искусственный интеллект, дополненную реальность, технологию, связанную с созданием дронов и управлением ими, блокчейн и ряд других. В настоящее время ёмкость мирового рынка IoT-решений оценивается по-разному. До 2020 года она может превысить 1,2 трлн долларов США, при этом объем российского рынка пока сравнительно небольшой, но отчётливо прослеживается динамика его развития.

В опубликованном PwC исследовании «Интернет вещей в России: технология будущего, доступная уже сейчас» подчёркивается, что применение технологий IoT в РФ сопряжено с рядом особенностей и ограничений, связанных с экономической, технологической, законодательной, географической и культурной спецификами страны. На потребительском рынке сдерживающим фактором является низкий уровень дохода населения, на рынке коммерческих компаний — длительность процесса принятия решений о внедрении новых технологий, короткий горизонт планирования компаний, сложность изменения внутренних процессов, регламентов, документооборота и подходов к получению и обработке информации, сложность интеграции технологий Интернета вещей в существующую IT-среду. В числе прочих сложностей, с которыми сталкиваются как поставщики, так и потребители IoT, фигурируют кибербезопасность, отсутствие стандартов и правового поля для применения целого ряда технологических решений, а также наличие барьеров, связанных с деятельностью регулирующих государственных органов.

По мнению экспертов, важную роль в развитии технологий Интернета вещей в нашей стране должно сыграть государство, в распоряжении которого есть различные инструменты: совершенствование регуляторной базы, развитие механизмов поддержки IoT, создание условий для развития кадрового потенциала, продвижение отечественного опыта за рубежом. В случае продуманного и системного подхода IoT может стать одним из факторов роста экономики России в долгосрочной перспективе. С полным текстом проведённого PwC исследования можно ознакомиться, проследовав по этой ссылке.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/956531
13.07.2017 [17:05], Сергей Карасёв

Объём IT-рынка в 2017 году достигнет 3,5 трлн долларов США

Компания Gartner обнародовала прогноз по мировому рынку информационных технологий (IT) на текущий и следующий годы.

Сообщается, что в 2016 году объём глобальной IT-отрасли в денежном выражении составил приблизительно $3,4 трлн. В нынешнем году затраты в соответствующем сегменте могут достичь $3,5 трлн. Это будет соответствовать росту на 2,4 % по сравнению с 2016-м.

В следующем году, как ожидается, рынок покажет рост ещё на 3,5 %. В результате, его объём составит около $3,6 трлн.

Компания Gartner отмечает, что в нынешнем году затраты в сегменте систем для центров обработки данных составят примерно $171 млрд. Ещё около $351 млрд придётся на программное обеспечение корпоративного класса.

Суммарная выручка в сегменте IT-сервисов прогнозируется на уровне $922 млрд. Коммуникационные сервисы принесут ещё $1,38 трлн.

Наконец, прогнозируется, что различные электронные устройства обеспечат выручку в размере приблизительно $654 млрд.

Аналитики Gartner полагают, что в 2017–2018 гг. рост выручки продемонстрируют все названные сегменты мирового рынка информационных технологий. 

Постоянный URL: http://servernews.ru/955438
17.03.2017 [18:00], Сергей Карасёв

Сети 5G будут развиваться в низкочастотной и высокочастотной частях спектра

Компания J’son & Partners Consulting обнародовала результаты исследования перспектив использования различных частотных диапазонов для сетей 5G в глобальном масштабе.

Эксперты полагают, что для успешного внедрения систем мобильной связи пятого поколения для целого ряда приложений потребуется использование и низкочастотной части спектра (ниже 6 ГГц), и высокочастотной (десятки гигагерц). Для развития сетей 5G в Европе на начальном этапе планируется использовать диапазоны 700 МГц, 3400–3800 МГц и 24,25–27,5 ГГц.

Ожидается, что низкие частоты (например, 3,4–3,6 ГГц) и широкие полосы обеспечат массовую доступность скоростей до 100 Мбит/c. Частоты ниже 1 ГГц, которые обеспечивают хорошее покрытие при малых затратах, могут быть использованы для реализации ряда сервисов в сегменте Интернета вещей (IoT).

Высокие частоты и очень широкие полосы можно будет использовать для подключения пользователей с пиковыми скоростями вплоть до 20 Гбит/с (в диапазонах 24,25–27,5 ГГц и 37–43,5 ГГц). Такие скорости, например, потребуются для 3D-видео с разрешением UHD, работы и игр в облаке, дополненной реальности, голографических звонков, тактильного Интернета и других приложений.

Эксперты полагают, что в большинстве стран под системы 5G будут выделяться сплошные полосы шириной 300–400 МГц. При этом на одного оператора будет выдаваться вплоть до 100 МГц частотного ресурса в диапазоне 3,4–3,8 ГГц.

Отмечается также, что все городские территории и крупнейшие транспортные магистрали в Европе будут обеспечены сплошным 5G-покрытием к 2025 году. 

Постоянный URL: http://servernews.ru/949287
07.03.2017 [14:23], Андрей Крупин

К 2020 году рынок ИИ-решений вырастет до $5 млрд

В ближайшие годы на рынке IT ожидается бурное развитие программных решений и сервисов, использующих технологии машинного обучения и системы искусственного интеллекта (ИИ) на базе нейронных сетей. С таким прогнозом выступили эксперты компании J’son & Partners Consulting, представившие результаты исследования ИИ как ключевого фактора цифровизации глобальной экономики.

В опубликованном J’son & Partners Consulting отчёте подчёркивается, что искусственный интеллект стал ключевым технологическим трендом 2016 года, и объем глобальных инвестиций в него превысил $ 500 млн. По прогнозам Markets and Markets, к 2020 году рынок ИИ вырастет до $5 млрд за счёт применения шести фундаментальных технологий: машинного обучения, глубинного обучения, компьютерного зрения, обработки естественного языка, машинной аргументации и сильного ИИ.

mashable.com

mashable.com

По оценкам экспертов, в перспективе десяти лет ИИ-технологии повлияют практически на каждый бизнес, при этом основными драйверами рынка станут реклама, розничная торговля, финансы и здравоохранение. Наиболее динамичный рост упомянутого рынка ожидается в Северной Америке, поскольку этот регион является центром развития инновационных технологий, производственных процессов, инфраструктуры, располагаемого дохода и т.д.

По мнению J’son & Partners Consulting, для России первоочередными сферами применения ИИ станут транспорт и финансовая сфера, промышленность и телекоммуникации. В более отдалённой перспективе будут затронуты практически все отрасли, включая государственное управление и систему международного обмена товарами и услугами.

С полной версией отчёта компании J’son & Partners Consulting можно ознакомиться на сайте json.tv.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/948720
02.03.2017 [16:20], Сергей Карасёв

Новый суперкомпьютер позволит российским синоптикам точнее прогнозировать погоду

Федеральная служба по гидрометеорологии и мониторингу окружающей среды России (Росгидромет) получит мощный суперкомпьютер, который позволит значительно повысить точность и оперативность формирования прогнозов погоды.

Изображения Росгидромета

Изображения Росгидромета

Как сообщается, созданием вычислительного комплекса займётся группа из трёх IT-компаний — интегратора Inline Technologies, разработчика суперкомпьютеров «Т-Платформы» и кипрской BD Enterprise Network Ltd. О заключении соответствующего контракта говорится в документации Бюро экономического анализа (БЭА).

Итоговая сумма контракта указана в размере 358,43 млн рублей, 24,14 млн долларов США и 3,98 млн евро. Срок выполнения работ — 10 месяцев.

Сейчас российские синоптики используют систему, чья производительность на тесте Linpack составляет около 32 терафлопсов (триллионов операций с плавающей запятой в секунду). Через 10 месяцев новый суперкомпьютер производительностью 1,2 петафлопса начнёт работу в Мировом метеорологическом центре в Москве; ещё две установки по 76 терафлопсов появятся в Региональных специализированных метеорологических центрах в Новосибирске и Хабаровске. Вычислительная мощность систем Росгидромета возрастет более чем на порядок.

Это позволит кардинально улучшить разрешение компьютерных моделей, применяемых для прогноза погоды и климата, и повысить их точность. Например, горизонтальное разрешение глобальной спектральной прогностической модели на 10 суток вырастет в 3 раза. Это было бы невозможно без модернизации вычислительных систем, ведь чтобы выполнить лишь один такой расчёт в требуемый технологический временной интервал, нужно потратить 2000 процессоро-часов компьютерного времени. 

Комплексный проект модернизации вычислительных мощностей Росгидромета предполагает не только установку суперкомпьютера и модернизацию инженерной инфраструктуры центров, но и строительство сложной информационной системы, включающей десятки функциональных блоков и обеспечивающей эффективную обработку и защиту данных.

«Реализация этого проекта станет настоящим прорывом для России в области компьютерных технологий прогнозирования погоды и климата. Суперкомпьютерный центр Росгидромета будет оснащён на уровне других мировых метеоцентров»,  — говорят эксперты.

Постоянный URL: http://servernews.ru/948462
02.03.2017 [09:38], Андрей Крупин

Oracle представила прогноз развития рынка Big Data на 2017 год

В последнее время экспертиза и аналитика возрастающих объёмов неструктурированной информации, получивших в профессиональной IT-среде название «большие данные» (Big Data), становятся всё более востребованными в корпоративном секторе, и всё больше организаций приходят к осознанию того, что за этими технологиями будущее. Своим видением будущего этой отрасли поделилась компания Oracle.

По мнению Oracle, в наступившем 2017 году широкое распространение получат аналитические платформы Big Data, использующие технологии машинного обучения и системы искусственного интеллекта на базе нейронных сетей. При этом значимую роль в развитии таких систем сыграет набирающая популярность концепция Интернета вещей (Internet of Things, IoT), предоставляющая широчайшие возможности для развёртывания интеллектуальных производств, мониторинга и управления состоянием любого оборудования, а также создания «умных» систем, улучшающих продуктивность бизнеса, качество и безопасность жизни людей.

Большим спросом на рынке будут пользоваться готовые комплексные решения, объединяющие такие облачные сервисы, как аналитика, исследование, подготовка и интеграция данных. С их помощью предприятия смогут максимально оперативно создавать и разворачивать в своей IT-инфраструктуре лаборатории данных для проведения экспериментов с Big Data и поддержки инноваций. Дальнейшее развитие получат средства виртуализации данных, инструменты объединения отдельных источников данных в единое целое, технологии объектного хранения, системы многоуровневого обеспечения безопасности данных, платформа Apache Kafka, облачные архитектуры для глубинного изучения в больших масштабах и прочие инновационные решения в индустрии «больших данных».

Подробно ознакомиться с исследованием рынка Big Data и прогнозами его развития можно в официальном блоге компании Oracle.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/948505
21.02.2017 [13:39], Андрей Крупин

Oracle представила прогноз развития рынка облачных сервисов на 2017 год

Компания Oracle поделилась своим видением будущего рынка cloud-технологий в России и мире.

По мнению аналитиков Oracle, наступивший 2017 год станет поворотным с точки зрения тенденций в области облачных услуг и сервисов. Претерпит кардинальные изменения подход к обеспечению безопасности корпоративных cloud-окружений, станут более совершенными средства контроля за размещаемыми и обрабатываемыми в облаке данными, появятся надёжные поставщики IaaS-решений с богатым опытом работы, обладающие компетентностью и ресурсами для выстраивания многоуровневой защиты данных клиентов. Следствием этого станет переосмысление крупным бизнесом стратегии развития и перенос критически важных рабочих IT-нагрузок в облако.

Дальнейшее развитие в наступившем году получат средства разработки облачных приложений. Также ожидается бурное развитие cloud-платформ, использующих технологии машинного обучения и системы искусственного интеллекта на базе нейронных сетей. В свете этого эксперты Oracle прогнозируют появление новых, более совершенных инструментов аналитики всё возрастающих объёмов неструктурированной информации, получивших в профессиональной IT-среде название «большие данные» (Big Data). Всё это в комплексе приведёт к тому, что в ближайшие годы под влиянием облачных технологий и Интернета вещей произойдёт переосмысление и переопределение таких отраслей, как здравоохранение, производство и даже городское планирование.

Подробно ознакомиться с исследованием облачного рынка и прогнозами его развития можно в официальном блоге компании Oracle.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/947914
Система Orphus