Материалы по тегу: mit

22.11.2017 [13:00], Иван Грудцын

Суперкомпьютер Summit: подробности о будущем лидере рейтинга TOP500

В эти дни в Национальной лаборатории Ок-Ридж (Oak Ridge National Laboratory, ORNL), находящейся в американском штате Теннесси, кипит работа по вводу в строй суперкомпьютера Summit, расчётная производительность которого примерно в два раза выше, чем у нынешнего рекордсмена Sunway TaihuLight с пропиской в Китае. С показателем быстродействия около 200 Пфлопс Summit опережает в том числе и своего предшественника Titan (17,6 Тфлопс), базирующегося на процессорах Opteron 6274 и HPC-ускорителях Tesla K20X.

Основой Summit являются приблизительно 4600 серверных узлов IBM Power Systems AC922 «Newell». У Titan узлов в четыре раза больше (18 688 шт.), но на каждый приходится только по одному CPU и GPU. В свою очередь, у «строительного блока» Summit по два центральных и шесть графических процессоров. Узлы AC922, сочетающие в себе процессоры IBM POWER9 и HPC-ускорители NVIDIA Volta GV100 (Tesla V100), демонстрировались на недавней выставке-конференции SC17 в Денвере (штат Колорадо, США).

IBM Power Systems AC922 «Newell»

Узел IBM Power Systems AC922 «Newell»

IBM AC922 собираются в 2U-корпусах, где, кроме прочего, размещаются 16 модулей оперативной памяти DDR4-2666 общим объёмом 512 Гбайт (с возможностью расширения до 2 Тбайт), 1,6 Тбайт энергонезависимой буферной памяти для нужд основного хранилища (суммарно 250 Пбайт, интерфейс 2,5 Тбайт/с), два 2200-Вт блока питания с возможностью горячей замены и множественные узлы системы жидкостного охлаждения.

СЖО замысловатой конструкции призвана справиться с шестью 300-Вт GPU и парой 190-Вт CPU. Воздушное охлаждение для тех же целей было бы не таким дорогим, но эксплуатационные расходы в таком случае могли бы значительно вырасти. Пиковое энергопотребление суперкомпьютера ожидается на уровне 13 МВт (по другим данным — 15 МВт). По этому показателю ORNL Titan скромнее с его 9 МВт в условиях максимальной нагрузки. Система питания Summit проектируется с учётом возможного усиления суперкомпьютера дополнительными узлами. После гипотетического апгрейда предельное энергопотребление может достигать 20 МВт.

HPC-ускоритель NVIDIA на чипе Volta GV100 в форм-факторе SMX2

HPC-ускоритель NVIDIA на чипе Volta GV100 в форм-факторе SMX2

Согласно Tom’s Hardware, полностью собранный ORNL Summit займёт площадь двух баскетбольных площадок, то есть около 873 квадратных метров. Суммарная длина кабелей Summit составит 219 км. Прежде сообщалось, что суперкомпьютер будет готов к загрузке ресурсоёмкими научными задачами с января 2019 года. Теперь же речь идёт о его вводе в эксплуатацию в течение 2018 года. При этом, как указывает пресс-служба TOP500, Summit уже в июне возглавит обновлённый рейтинг мощнейших серверных систем, где, похоже, пропишется и NVIDIA DGX SaturnV второго поколения на 5280 ускорителях Tesla V100.

Директор Национальной лаборатории Ок-Ридж Томас Закария (Thomas Zacharia) в общении с представителями ресурса top500.org подчеркнул важность ввода в эксплуатацию такого производительного суперкомпьютера, как Summit:

«Один из наших коллективов разрабатывает алгоритм машинного обучения для Summit, чтобы помочь в выборе лучшего метода лечения рака у каждого конкретного пациента, — отметил г-н Закария. — Другая команда сегодня использует ресурсы Titan для проектирования и мониторинга реакторов на базе технологии управляемого термоядерного синтеза. Ещё одна группа специалистов использует машинное обучение, чтобы помочь классифицировать типы траекторий нейтрино, наблюдаемых в ходе различных экспериментов».

Томас Закария (Thomas Zacharia), фото knoxnews.com

Томас Закария (Thomas Zacharia), фото knoxnews.com

Впрочем, исключительно машинным обучением дело не ограничится. Директор лаборатории Ок-Ридж упомянул о таких вариантах использования Summit, как моделирование климата, решение задач из области релятивистской квантовой химии, вычислительной химии, астрофизики, физики плазмы и биофизики. Собственно, многие проекты уже запущены либо могут быть запущены на мощностях Titan, однако нехватка производительности является препятствием для углублённых исследований.

Комплекс зданий Национальной лаборатории Ок-Ридж

Комплекс зданий Национальной лаборатории Ок-Ридж

Длительная подготовка к запуску Summit объясняется не только необходимостью предварительного тестирования тысяч серверных узлов, но и задержкой со стороны IBM, которая пока не изготовила все заказанные ORNL процессоры POWER9. Со стороны NVIDIA, наоборот, задержек нет, ведь HPC-ускорители Tesla V100 поставляются клиентам уже не первый месяц.

«Сегодня Национальная лаборатория Ок-Ридж находится в завидном положении, — продолжил Томас Закария. — Мы располагаем уникальным опытом исследований в областях химии и физики материалов, нейтронной физики, ядерной физики, компьютерных наук и технических решений. Всё это в сочетании с талантом наших сотрудников позволяет решать проблемы и задачи, связанные с энергетикой, национальной безопасностью, производством и сетевой кибербезопасностью. Одна из наших основных целей заключается в том, чтобы стать ведущим исследовательским центром в мире. Это само по себе вдохновляет нас на новые свершения».

Постоянный URL: http://servernews.ru/961817
10.08.2017 [13:00], Алексей Степин

Национальная лаборатория Ок-Ридж начала монтаж суперкомпьютера Summit

Как сообщают зарубежные средства массовой информации, национальная лаборатория министерства энергетики США, известная как Национальная лаборатория Ок-Ридж (Oak Ridge National Laboratory, ORNL), начала работы по установке новейшего суперкомпьютера Summit, базирующегося на синтезе технологий IBM и NVIDIA. Ранее мы рассказывали об этом проекте, когда речь шла о быстродействии новых ускорителей NVIDIA Volta GV100. Напомним, что каждый из 4600 узлов Summit будет иметь производительность свыше 40 терафлопс, а в качестве начинки выступает связка из двух процессоров IBM POWER9 и шести ускорителей Volta GV100 производительностью порядка 7,5 терафлопс каждый. В качестве связующего звена задействован интерфейс NVLink 2.0 с пропускной способностью до 200 Гбайт/с.

Summit должен стать ответом китайскому проекту TaihuLight — пиковая производительность нового суперкомпьютера планируется на уровне 200 петафлопс, тогда как конкурент развивает лишь чуть более 125 петафлопс. Эти два суперкомпьютера станут самыми мощными вычислительными комплексами на планете, не использующими архитектуры x86. В понедельник в лабораторию Ок-Ридж были доставлены первые контейнеры с узлами Summit, и по словам представителя ORNL, как только они будут распакованы, сразу же начнётся процесс установки и монтажа компонентов новой системы, а также её подключения к сетям питания и охлаждающим установкам. Процесс сборки должен занять порядка шести месяцев, полноценный ввод системы в эксплуатацию запланирован на январь 2019 года.

В последнем случае речь идёт об общей доступности для научно-исследовательских проектов, но до этого система будет проходить наладку, и к ней получат доступ разработчики из министерства энергетики и некоторые университеты. Скорее всего, первые «признаки жизни» Summit подаст не раньше 2018 года, так что процедуру смены короны лидера списка TOP500 мы увидим не раньше следующего июня. Новый суперкомпьютер ORNL превзойдёт не только китайского монстра, но и предыдущую систему Окриджской лаборатории под названием Titan. Сейчас эта система занимает четвёртое место в TOP500 с пиковой производительностью 27,1 петафлопса и измеренными с помощью Linpack 17,6 петафлопсами. Таким образом, Summit будет в 5‒10 раз быстрее предшественника. А благодаря архитектурным особенностям NVIDIA Volta на задачах глубинного обучения (смешанные 16/32-битные вычисления) мощность Summit и вовсе достигнет запредельных 3,3 экзафлопс.

Постоянный URL: http://servernews.ru/956728
19.04.2017 [19:20], Владимир Мироненко

Schneider Electric заключила ряд соглашений в день открытия Innovation Summit 2017

17 апреля в Москве стартовало крупнейшее мероприятие инновационных технологий — Innovation Summit (Саммит инноваций) 2017. На выставочной экспозиции ЦВК «Экспоцентр» площадью более 1000 м² можно познакомиться с новейшими разработками Schneider Electric.

Первый день Саммита инноваций — Data Center Day — был посвящён решениям для ИТ-рынка и центров обработки данных. Открыли мероприятие президент Schneider Electric в России и СНГ Йохан Вандерплаетсе (Johan Vanderplaetse) и Леонид Мухамедов, исполнительный вице-президент в Европе. Затем выступил с докладом о мировом опыте строительства ЦОД Филипп Арсено, старший вице-президент подразделения IT Division, после чего Наталия Макарочкина, вице-президент подразделения IT Division в России и СНГ, рассказала о новой архитектуре активного управления электроэнергией EcoStruxure.

Параллельно с основным мероприятием прошла конференция для реселлеров, дистрибьюторов и системных интеграторов, в рамках которой состоялась церемония ежегодного награждения партнёров.

На конференции обсуждались инновационные решения, обновление продуктов, а также партнёрские и сервисные программы APC by Schneider Electric. Помимо экспертов Schneider Electric на ней выступили представители крупных российских партнеров и заказчиков компании.

В первый день саммита Schneider Electric заключила ряд соглашений. В частности, был подписан договор с входящей в группу Remer компанией ЦМО на производство серверных шкафов. Также был подписан меморандум о намерениях сотрудничества с сетью дата-центров 3Data.

Саммит продлится до 20 апреля включительно, поэтому ещё не поздно зарегистрироваться и посетить одно из наиболее интересных событий для профессионалов в сфере информационных технологий.

Постоянный URL: http://servernews.ru/950996
14.07.2015 [10:06], Алексей Степин

Отказ от DRAM поможет снизить стоимость суперкомпьютеров

В современных кластерных системах и суперкомпьютерах высокоскоростная подсистема памяти является одной из важнейших, но при этом и одной из самых дорогих. Группа исследователей из Массачусетского технологического института (MIT) пришла к парадоксальному, на первый взгляд, выводу — для удешевления кластера нужно отказаться от использования DRAM.

Разумеется, совсем без памяти обойтись невозможно, и экспериментальная серверная сеть, построенная ими, базируется на более медленной, но и более дешёвой флеш-памяти. При этом система работала не хуже классической. Ключевой особенностью разработки является возможность возложить на плечи контроллеров флеш-памяти часть нагрузки по обработке данных, вместо того, чтобы оставлять всё на плечах центральных процессоров, как это делается традиционными методами.

Гибридные модули памяти уже существуют

Гибридные модули памяти уже существуют

Конечно, это не делает флеш-память равной DRAM, но в работе разница практически незаметна. Как сообщают исследователи, 20 серверов, укомплектованных 20 Тбайт флеш-памяти, работают примерно так же быстро, как 40 серверов с 10 Тбайт классической оперативной памяти. Это не значит, что подход с флеш-памятью подходит для любых задач. Разработчики MIT использовали сценарии с объёмными базами данных, такие, например, как сортировка веб-страниц. В задачах, где требуется чистая вычислительная мощность, их подход может работать не столь успешно, и уж конечно он не заменит модули DIMM в вашем домашнем ПК. По крайней мере, в ближайшем будущем.

Постоянный URL: http://servernews.ru/917053
18.06.2013 [12:35], Георгий Орлов

Исследователи MIT улучшили облачную безопасность сквозным шифорованием

В Массачусетском технологическом институте (MIT) разработали методику, основанную на гомоморфном шифровании, которая позволяет облачным серверам обрабатывать данные без расшифровки. Исследователи признают, что пока она требует слишком много вычислительной мощности для практического использования. Тем не менее научная группа гордится своими успехами. «Раньше мы даже не знали, что это возможно», — говорит один из аспирантов кафедры электротехники и компьютерных наук в Массачусетском технологическом институте и соавтор исследования.

Стив Пейт (Steve Pate), соучредитель и главный директор по технологиям облачного шифрования компании HighCloud Security, назвал новое исследование «обнадеживающим», тем не менее подтвердив, что «затраты вычислительных ресурсов, необходимые для гомоморфного шифрования, намного превышают то, что мы имеем на сегодняшний день». Прежде чем такой метод сможет работать, необходимо значительно изменить оборудование, чтобы  возможности шифрования и управления ключами обеспечивались внутри процессора или другого аппаратного модуля, считает Стив.

Пока что исследования носят скорее теоретический, нежели прикладной характер. «Технологии должны быть испытаны практиками отрасли безопасности», — говорит Эндрю Хэй, директор исследований в области безопасности компании CloudPassage. Исследование MIT, в котором принимали участие также ученые из Университета Торонто и Microsoft, было представлено на прошлой неделе на 45-м симпозиуме Theory of Computing, проводимом Association for Computing Machinery.

Источник:

Постоянный URL: http://servernews.ru/597485
05.03.2013 [02:09], Георгий Орлов

Профессор MIT: не попадайте в ловушки «больших данных»

Финальное выступление главного научного сотрудника Microsoft и приглашенного профессора Массачусетского технологического института (MIT) Кейт Кроуфорд (Kate Crawford) на конференции Strata в Санта-Кларе (Калифорния, США), посвящённой "большим данным", всколыхнуло аудиторию, полную экспертов в области аналитики больших объемов неструктурированной информации.

(MIT) Кейт Кроуфорд (Kate Crawford)

"Большие данные" могут представлять собой фундаментальный сдвиг в том, как мы понимаем знания, - сказала Кроуфорд. - Но иногда, работая с ними, складывается впечатление, что мы можем увидеть мир ясно и объективно с высоты 12 километров, а это ловушка". В качестве примера подобной ловушки Кроуфорд привела проект Street Bump, использовавший данные из смартфонов водителей для определения выбоин на дорогах города. Некорректность данных, собираемых проектом, в том, что владельцы мобильных устройств живут в определённых частях мегаполиса и перемещаются тоже по ограниченным маршрутам. "Следовательно, богатые районы с молодым населением получат больше внимания и ресурсов, в отличие от областей со пожилыми и/или малоимущими гражданами", - отметила Кроуфорд.

Преимущества "больших данных" и аналитические последствия технологии огромны, сказала она, и границы исследований, несомненно, надо расширять, избегая ложного чувства объективности "больших данных" и сочетая их инструментарий с традиционными методами вычислительной техники и аналитики для того, чтобы делать более точные выводы.

"Мы знаем, данные идеи могут быть найдены на всех уровнях, и, объединив целый ряд инструментов, мы сможем получить гораздо более объемное изображение того, что мы пытаемся узнать", - резюмировала Кроуфорд.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/597125
21.08.2012 [12:02], Георгий Орлов

Integral Memory анонсировала накопитель Crypto SSD

На конференции Flash Memory Summit (г. Санта Клара, Калифорния, США) британская компания Integral Memory анонсировала производство новых твердотельных накопителей с аппаратным шифрованием. Накопитель Integral Memory Crypto SSD с поддержкой аппаратного шифрования AES (Advanced Encryption Standard) с длиной ключа 256 бит и ёмкостью от 32 Гбайт до 256 Гбайт. Накопители Crypto SSD имеют экранированный металлический наружный корпус, а все электронные компоненты залиты эпоксидным компаундом.

Crypto SSD

"Мы считаем, что возможность "установил и забыл", обеспечиваемая Crypto SSD, является экономически эффективным решением для управления безопасностью данных, - сказал Барри Уэбб (Barry Webb), президент американского отделения Integral Memory. - Материальные и репутационные издержки вследствие даже незначительных нарушений, как правило, значительны и носят длительный характер. Они значительно перевешивают затраты на внедрение и использование Crypto SSD".

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/596442
21.06.2012 [07:53], Георгий Орлов

MIT и Intel объединились для исследования "больших данных"

С несколькими инициативами в области "больших данных" выступил недавно в Массачусетском технологическом институте (MIT) губернатор Массачусетса Деваль Патрик (Deval Patrick), сказав, что он хочет сделать свой штат центром исследований в новых областях науки и технологии. "Мы организуем ресурсы MIT для продвижения научных исследований и подготовки нового поколения исследователей данных", - сказал Деваль Патрик. По его мнению, штат Массачусетс даст толчок многоэтапному процессу исследования и применения "больших данных", включающему в себя соответствующую программу грантов и стажировок.

MIT и Intel

Одна из инициатив - программа MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) под названием BigData@CSAIL, целью которой будет осмысление больших объемов данных, генерируемых в таких отраслях как финансовые услуги, здравоохранение и социальные медиаресурсы. Другая - анонсированный Intel план создания исследовательского центра "больших данных" (Intel Science and Technology Center, ISTC) в MIT. Производитель процессоров предоставит центру финансирование в размере $2,5 млн в год на срок до пяти лет. ISTC возглавит адъюнкт-профессор MIT Сэмюэль Мэдден (Samuel Madden), который сказал, что цель программы состоит в том, чтобы "создать программные инструменты для масштабирования обычных программ, таких как реляционные базы данных".

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/596123
07.02.2011 [12:53], Георгий Орлов

В Массачусетском Технологическом Институте прошёл саммит по облачным технологиям

В Массачусетском Технологическом Институте (MIT, Massachusetts Institute of Technology) прошел саммит, посвященный облачным технологиям в приложении к проблемам баз данных. Одной из обсуждаемых тем стала система Dolly, предназначенная для гибкого управления (dynamic provisioning) ресурсами баз данных в облачных инфраструктурах. О системе Dolly рассказал исследователь из Университета штата Массачусетс Эммануэль Секкет (Emmanuel Cecchet).

 

Massachusetts Institute of Technology

 

По словам Секкета, гибкая реакция облачных сервисов на увеличение и уменьшение потока запросов характерна пока для приложений интерфейсного и среднего ярусов в цепочке «веб-клиент — база данных», при этом клиент имеет возможность пользоваться теми мощностями, в которых он нуждается в каждый конкретный момент, и оплачивать только эти мощности (metered pricing). Ресурсы же баз данных по-прежнему определяются возможными пиковыми нагрузками, а инструменты для гибкого добавления и убавления мощностей на этом ярусе отсутствуют. Команда Секкета пытается решить эту проблему, используя инструменты виртуализации для создания копий баз данных. Разрабатываются также алгоритмы для гибкого управления ресурсами на уровне базы данных. Разработчики уже создали прототип системы и планируют выпустить программное обеспечение с открытым исходным кодом.

Источник:

Постоянный URL: http://servernews.ru/594184
09.12.2010 [15:53], Валерий Косихин

MIT сообщает: быстрейшие бизнес-процессы уткнулись в предел скорости света

Заявление Массачусетского технологического института (MIT) звучит фантастически: в быстрейших вычислительных сетях, нагруженных "горячими" данными, скорость света стала существенным источником латентности.

Современные оптоволоконные соединения могут пересылать сигналы между разными концами Земли со скоростью, которая близка к световой и уменьшается лишь в моменты коммутации. Однако для некоторых задач это может быть уже недостаточно быстро. Например, для так называемой высокочастотной торговли. Под данным термином в финансовой среде подразумевают быструю куплю и продажу множества позиций на фондовом рынке на основании непрерывного компьютерного анализа. Фирмы, играющие на этом поле, зачастую работают с несколькими биржами одновременно, что требует максимально быстрой коммуникации в глобальном масштабе.

Александр Висснер-Гросс (Alexander Wissner-Gross), один из авторов исследования по данной тематике, проведенного MIT, утверждает, что задержки при передаче данных зачастую становятся единственным фактором, приводящим трейдеров к пропуску критических изменений на рынке.

В качестве практического вывода работы MIT рекомендует компаниям, занимающимся высокочастотной торговлей, равно как и другим организациям, чья деятельность не терпит промедлений, задуматься о том, где они размещают свои дата-центры. И если невозможно переместить ЦОД ближе к горячей точке рынка, игру может ощутимо изменить установка перевалочного пункта на полпути к ней.

Источник:

Постоянный URL: http://servernews.ru/593903
Система Orphus