Материалы по тегу: супервычисления

08.05.2018 [13:00], Геннадий Детинич

Qualcomm планирует выйти из бизнеса по выпуску серверных процессоров

Ещё один разработчик собирается сойти с новой дистанции — покинуть зарождающийся рынок серверных платформ на архитектуре ARM. Причём не просто новичок, как, например, компания Calxeda, которая свернула разработки в 2014 году, а один из главных сторонников продвижения серверных решений на ARM — компания Qualcomm.

Как сообщает информагентство Bloomberg со ссылкой на анонимные источники внутри компании, в настоящий момент руководство Qualcomm зондирует почву на предмет выбора одного из вариантов: просто ликвидировать подразделение по разработке серверных процессоров или найти покупателя на этот вид деятельности. В любом случае, это окажет негативное влияние на сообщество сторонников серверных процессоров на ядрах ARM. Расцвет серверных платформ на архитектурах ARM ожидался не позже 2016 года. На дворе истекает первая половина 2018 года, а массовых решений в этой области как не было, так и нет.

Интересно, что прошло всего лишь чуть больше полугода после старта коммерческих поставок 10-нм 48-ядерных процессоров Qualcomm Centriq 2400. По словам разработчиков, процессоры Centriq 2400 по энергоэффективности и по показателю стоимости существенно опережали 28-ядерные модели процессоров Intel Xeon Platinum 8180. В ноябре компания Microsoft показала сервер на процессорах Qualcomm Centriq 2400 и явную заинтересованность в подобных решениях.

Выглядит Cenriq практически так же, как и обычные Xeon, Opteron или EPYC

Выглядит Cenriq практически так же, как и обычные Xeon, Opteron или EPYC

С тех пор ничего нового об использовании процессоров Centriq 2400 в каких-либо системах не сообщалось, а тишина в данном случае свидетельствует об отсутствии интереса к новинкам. Всё снова вернулось к x86-совместимым платформам Intel Xeon, тем более, что как раз прошлой осенью вышли первые серверные модели Xeon на архитектуре Skylake, и все дружно начали закупать проверенные временем решения.

Постоянный URL: http://servernews.ru/969391
26.04.2018 [15:49], Алексей Степин

Verne Global представила новый сервис hpcDIRECT

Компания Verne Global, известный производитель и поставщик решений для ЦОД и сферы супервычислений, анонсировала системы hpcDIRECT, главное назначение которых — работа в составе кластеров, задействованных в области вычислительной биологии и генетики. Новинки относятся к модному нынче классу «супервычисления как облачный сервис», и клиент может выбирать из многочисленных опций.

К примеру, в зависимости от задачи, Verne Global предлагает разные ускорители на базе графических процессоров, выделенные или разделяемые хранилища данных, а также гарантирует наличие скоростной сетевой среды. Типичная спецификация включает в себя 32 физических ядра с частотой 2,1 ГГц, 512 Гбайт оперативной памяти (16 Гбайт на ядро) и сетевое подключение InfiniBand FDR со скоростью 56 Гбит/с.

Решения hpcDIRECT устанавливаются в безопасном ЦОД, оптимизированном с учётом сферы супервычислений, и обслуживаются командой квалифицированных специалистов. Клиентам предоставляется настоящая вычислительная мощность без виртуализации; иными словами, процессорную производительность не приходится делить с другими заказчиками. Стоимость трёхлетней резервации мощностей стоит 0,03 евро за одно ядро в час, мгновенный доступ «по требованию» дороже — 0,07 евро. Подробности можно узнать на сайте сервиса по приведённой выше ссылке.

Постоянный URL: http://servernews.ru/968954
26.04.2018 [14:20], Андрей Крупин

Mail.Ru Group запустила сервис облачных вычислений на базе NVIDIA GPU

Компания Mail.Ru Group дополнила свою облачную B2B-инфраструктуру Mail.Ru Cloud Solutions (MCS) новым сервисом высокопроизводительных GPU-вычислений, предназначенным для решения задач, связанных с искусственным интеллектом и машинным обучением.

В основу нового сервиса положены  GPU-ускорители Tesla V100 с архитектурой NVIDIA Volta, производительность которых в задачах глубокого обучения достигает внушительных 125 терафлопс. Пользователи MCS могут заказать нужный объём вычислительных ресурсов с посекундной тарификацией для сокращения расходов и в случае необходимости оперативно масштабировать облачную инфраструктуру.

«Распределённые вычисления — задача непростая. Не имея прямого доступа к вычислительным мощностям, разработчики не могут быстро проверить свою идею, что тормозит развитие IT в России. Mail.Ru Group стремится сделать современные технологии максимально доступными. С запуском облачных вычислений на GPU любой желающий может взять в аренду современные графические процессоры и проверить свои гипотезы. Мы искренне надеемся, что доступ к возможностям высокопроизводительных GPU NVIDIA в облаке даст плоды в виде новых технологических стартапов», — прокомментировал запуск нового продукта руководитель направления облачных и бизнес-сервисов Mail.Ru Group Егор Ганин.

Получить доступ к системе облачных вычислений Mail.Ru Cloud Solutions на базе NVIDIA GPU можно по ссылке mcs.mail.ru/gpu.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/968993
24.04.2018 [09:27], Алексей Степин

Экосистема OpenPOWER готова к массовому развёртыванию

Буквально на днях мы рассказывали читателям о первых тестах платформы POWER9. Результаты оказались неоднозначными, но это можно списать на отсутствие оптимизации ПО с учётом особенностей и возможностей новых процессоров. Важно другое: лёд тронулся, и инициатива OpenPOWER начинает давать первые плоды на рынке, причём не только в виде серверов и кластерных систем. Хотя последнее тоже очень важно, ведь системами на базе POWER9 заинтересовалась Google, да и суперкомпьютер Summit внушает уважение своими параметрами. Крис Салливан (Chris Sullivan), заместитель директора отдела биовычислений (Center for Genome Research and Biocomputing, CRGB) университета штата Орегон, считает портирование приложений на платформу POWER9 достаточно лёгкой задачей — за один‒два месяца удалось пересобрать около 2000 приложений, тогда как количество уже имеющихся программ для x86 составляет около 4000.

Главным признаком того, что экосистема OpenPOWER готова к масштабному развёртыванию, является тот факт, что IBM решила всерьёз поддержать Linux и стандарт little endian, сперва в процессорах POWER8, а затем и в POWER9. Особенно важно последнее, так как порядок записи байтов является фундаментальным: код, созданный на системе, работающей в режиме big-endian (BE, от старшего к младшему), без подготовки в принципе не заработает на платформе, где основополагающим режимом является little-endian (LE, от младшего к старшему). Первый режим традиционно использовался в больших системах IBM и многих других процессорных архитектурах, второй же прочно прижился в среде x86 и по мере роста её популярности завоевал и научно-исследовательский сектор. Но теперь запуск имеющихся приложений, многие из которых не имеют аналогов, стал возможен, поскольку новые системы IBM поддерживают оба режима. На самом деле с приходом POWER8 программное обеспечение «внутри» работает в режиме big-endian (BE), но в LE-приложениях порядок данных меняется автоматически, что прозрачно для операционной системы, приложений, и, разумеется, самого пользователя.

Компиляторы, такие как XLC или GCC, могут компилировать код в обычном режиме PPC или же в режиме PPCLE. Всё это облегчает поддержку такой распространённой в научном мире ОС, как Linux. Ещё в ноябре прошлого года Red Hat анонсировала поддержку LE для POWER9 и с тех пор интерес к системам IBM POWER с поддержкой LE стабильно растёт. Это не может не радовать всех, кто связан с инициативой OpenPOWER, а также энтузиастов, уставших от засилья x86. Ведь такой ход со стороны IBM позволит использовать новшества вроде NVLink, OpenCAPI или PCI Express 4.0 в привычном Linux-окружении. Некоторые сложности создаёт оптимизация старого ПО с учётом SSE или SSE2, но в целом проблема решаема, считают представители IBM. Конечной целью является привлечение в ряды сторонников новой платформы крупных пользователей, таких как CGRB (Center for Genome Research and Biocomputing). К примеру, CRGB запускает порядка 20 тысяч задач в день, имеет в своём распоряжении 5000 процессоров, более четырёх петабайт хранилищ данных и генерирует порядка 4‒9 терабайт данных в день.

Постоянный URL: http://servernews.ru/968781
10.04.2018 [01:20], Алексей Степин

Тайны коммутатора NVIDIA NVSwitch

На прошедшей недавно конференции GTC (GPU Technology Conference) корпорация NVIDIA представила новый внутренний интерконнект NVSwitch, целью которой является эффективное объединение в сеть множества вычислительных процессоров Volta. Именно NVSwitch является сердцем демонстрационной системы DGX-2, аналоги которой планируется использовать в дальнейшем для постройки суперкомпьютера нового поколения Saturn V. С момента официального анонса новой технологии о ней стали известны новые детали, включая данные о внутренней архитектуре самого коммутатора NVSwitch. Как известно, вычислительные ускорители имеют три фундаментальных ограничения, влияющих на эффективность их работы в составе кластерной системы: производительность подсистемы ввода-вывода, пропускная способность памяти и объём этой самой памяти.

Кристалл NVSwitch

Кристалл NVSwitch

Последние два, впрочем, обходятся достаточно малой кровью: ускорители Volta могут нести на борту до 32 Гбайт памяти типа HBM2, которая, к тому же, может прокачивать до 900 Гбайт/с. Но по мере масштабирования системы проблема I/O встаёт всё острее, поскольку скорости, приведённые выше, сетям и сетевым средам пока недоступны, а значит, на задачах с большой степенью параллелизации главным фактором, ограничивающим производительность, может стать именно сеть. Это подтверждают и результаты тестирования суперкомпьютеров с помощью новой методики, о чём мы недавно рассказывали нашим читателям.

Его функциональные блоки

Его функциональные блоки

Решить эту проблему и призвана технология NVIDIA NVSwitch. Само сердце технологии, чип-коммутатор может работать в разных топологиях. Как уже было сказано, впервые он найдёт применение в системе DGX-2, поставки которой должны начаться в третьем квартале. NVIDIA пока не предполагает использование этого коммутатора для сетевого соединения нескольких «корпусов», то есть, в качестве, «внешнего интерконнекта», но это не значит, что разработчики суперкомпьютеров не решат попробовать новинку и в качестве такого решения.

Выглядит снимок кристалла NVSwitch довольно впечатляюще, что неудивительно, поскольку состоит этот кристалл из 2 миллиардов транзисторов. Предположительно, в его производстве задействован 12-нм техпроцесс класса FinFET, разработанный TSMC, но компания-разработчик хранит по этому поводу молчание, по крайней мере, пока. Архитектурно в составе NVSwitch можно выделить два блока по 8 портов NVLink плюс два дополнительных порта этой шины. Система соединений (кроссбар) работает в неблокирующем режиме, так что любой из портов NVLink в правом или левом модуле может напрямую работать с одним из двух портов в верхнем модуле. Это существенно отличает реальный чип от опубликованных в момент анонса данных о технологии NVSwitch.

Один из слайдов NVIDIA

Один из слайдов NVIDIA

На предыдущих слайдах изображено 16 чипов в 8 парах, соединённых друг с другом на скорости 300 Гбайт/с (150 Гбайт/с в каждую сторону) с тотальной пропускной способностью, достигающей 2,4 Тбайт/с. Но NVSwitch имеет 18 портов, поэтому при подключении 16 процессоров Volta остаётся место для дальнейшего расширения конфигурации. Если блок-схема DGX-2, продемонстрированная на презентации, верна, то в ней имеется 12 коммутаторов NVSwitch, но тогда не все порты остаются задействованными.

Это позволяет предположить, что 16-процессорая версия DGX-2 является пилотной, а дизайн NVSwitch создан с заделом на будущее и позволяет создавать, к примеру, 32-процессорные системы в одном корпусе-узле. Пока этому мешает текущая версия модуля backplane, которой оснащается DGX-2, но архитектурного запрета на создание системы с теми же 32 вычислительными GPU нет. Точных данных о топологии DGX-2 пока нет, на имеющемся слайде видны по шесть «толстых» шин на каждую «половину» кластера. С учётом свободных портов, скорость «общения половин» между собой может достигать 6 Гбайт/с (3 Гбайт/с в каждую сторону). 

Из этого слайда топология DGX-2 не ясна

Из этого слайда топология DGX-2 не ясна

Были различные предположения о топологии, включая схему «двойное кольцо», но в худшем сценарии такая схема соединяет два ГП через шесть «скачков» (hops), а это не лучший вариант с точки зрения латентности. NVIDIA употребляет термин «fully connected crossbar internally» по отношению к NVSwitch, но не говорит этого про систему в целом и про соединение между двумя половинами DGX-2. Если предположить, что для соединения используется пара «верхних» портов коммутатора, то ГП могут быть соединены попарно, но тогда для полноценного соединения всей системы в единое целое потребуются иные механизмы, например, дополнительные соединения PCI Express, что выглядит не слишком осмысленным, если сравнить скорости PCIe и декларируемые NVIDIA цифры, относящиеся к NVLink.

Как оказалось впоследствии и было подтверждено официально, 12 «лишних» портов NVLink в NVSwitch не задействованы в DGX-2. Топология внутренней сети в новой системе проще, и каждый из шести портов в Volta соединён с одним из NVSwitch «сверху». Аналогичным образом подключается восьмёрка ГП «снизу». Такая схема позволяет добиться латентности в два «хопа» между двумя любыми ГП на одной «половине» системы, а если требуется коммуникация между разными половинами, то количество «хопов» увеличивается до трёх.

А так она выглядит на самом деле

А так она выглядит на самом деле

Разумеется, это не единственный сценарий: в данном варианте использовано всего 6 чипов NVLink для каждой половины, но ничто не мешает увеличить их число до, скажем, двенадцати. Новая система весьма эффективна: для демонстрации NVIDIA использовала пару серверов DGX-1 с 8 ГП Volta V100 в каждом. Они были соединены между собой четырьмя каналами InfiniBand с совокупной пропускной способностью 400 Гбит/с. Сравнительные тесты показали более чем двукратное (от 2,4 до 2,7x) превосходство системы DGX-2, использующей новые технологии с NVSwitch во главе.

DGX-2 ставит новые рекорды

DGX-2 ставит новые рекорды

Выглядит новая технология очень многообещающе, но интересно будет взглянуть, как она поведёт себя при увеличении количества вычислительных узлов, ведь модули DGX-2 придётся как-то соединять между собой, и не поглотит ли это все преимущества в случае постройки достаточно крупного кластера? Есть вариант NUMA, но практический предел, достигнутый на сегодня, составляет 128 процессоров; более того, после 32 процессоров в такой схеме критическую роль начинают играть очереди запросов и задержки. Как только DGX-2 начнёт поставляться массово, мы, скорее всего, узнаем ответ.

Постоянный URL: http://servernews.ru/968189
30.03.2018 [09:00], Андрей Крупин

2 апреля в Ростове-на-Дону стартует международная научная конференция «Параллельные вычислительные технологии»

В понедельник, второго апреля в Донском государственном техническом университете начнёт работу международная научная конференция «Параллельные вычислительные технологии (ПаВТ) 2018», посвящённая развитию и применению суперкомпьютерных вычислительных технологий в различных областях науки и техники, включая аппаратное и программное обеспечение, специализированные языки и пакеты. Мероприятие будет проходить в течение четырёх дней и охватит различные теоретические и практические аспекты использования высокопроизводительных систем в России и мире.

Мероприятие «ПаВТ 2018» станет площадкой для обсуждения перспектив развития параллельных вычислительных технологий, представления результатов, полученных ведущими научными группами в использовании суперкомпьютерных технологий для решения задач науки и техники, а также обмена опытом. Участники конференции озвучат современные тренды развития HPC-индустрии на примере обработки больших данных, представят аппаратно-программные решения для высокопроизводительных вычислений и задач искусственного интеллекта, расскажут о технологиях параллельного программирования и прочих наработках в суперкомпьютерной сфере.

В первый день работы конференции будет объявлена 28-я редакция списка Tоп-50 самых мощных суперкомпьютеров СНГ. Во все дни работы «ПаВТ 2018» будет действовать суперкомпьютерная выставка, на которой ведущие производители аппаратного и программного обеспечения представят свои новейшие разработки в области высокопроизводительных вычислений.

Организаторами конференции «ПаВТ 2018» являются Федеральное агентство научных организаций России и Суперкомпьютерный консорциум университетов России. Мероприятие проводится при поддержке Российского фонда фундаментальных исследований, а также компаний Intel, РСК, NVIDIA, Hewlett Packard Enterprise, AMD и ряда других.

Подробнее с программной конференции можно ознакомиться на сайте ПаВТ.рф.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/967726
28.03.2018 [13:45], Андрей Крупин

Объединённый институт ядерных исследований запустил новый суперкомпьютер производительностью 1 Пфлопс

Объединённый институт ядерных исследований (ОИЯИ) в Дубне сообщил о вводе в эксплуатацию нового вычислительного комплекса, названного в честь Н. Н. Говоруна, с именем которого с 1966 года связано развитие информационных технологий в научно-исследовательской организации. В разработке суперкомпьютера приняли участие сотрудники ОИЯИ, Лаборатории теоретической физики им. Н.Н. Боголюбова, Лаборатории информационных технологий, а также специалисты компаний Intel, РСК, NVIDIA и IBS Platformics.

Пиковая производительность суперкомпьютера им. Н. Н. Говоруна оценивается в 1 Пфлопс. Вычислительные мощности комплекса будут задействованы для решения задач в области физики элементарных частиц, ядерной физики и физики конденсированных сред, а также для реализации масштабного научно-исследовательского проекта NICA (Nuclotron-based Ion Collider facility), целью которого является моделирование момента возникновения Вселенной и изучение свойств плотной барионной материи.

В основу вычислительного комплекса ОИЯИ положена кластерная система на базе архитектуры «РСК Торнадо» с прямым жидкостным охлаждением. Вычислительные узлы суперкомпьютера построены с использованием 72-ядерных серверных процессоров Intel Xeon Phi 7290, процессоров семейства Intel Xeon Scalable (Xeon Gold 6154), плат семейства Intel Server Board S7200AP и S2600BP, твердотельных накопителей Intel SSD DC S3520 с подключением по шине SATA в форм-факторе M.2 и Intel SSD DC P4511 с интерфейсом NVMe ёмкостью 1 Тбайт. Для высокоскоростной передачи данных между вычислительными узлами задействованы контроллеры Intel Omni-Path, обеспечивающие скорость неблокируемой коммутации до 100 Гбит/c, на основе 48-портовых коммутаторов Intel Omni-Path Edge Switch 100 Series.

Все элементы суперкомпьютера (вычислительные узлы, блоки питания, модули гидрорегулирования и др.) имеют встроенный модуль управления, что обеспечивает широкие возможности для детальной телеметрии и гибкого управления. Конструктив шкафа позволяет заменять вычислительные узлы, блоки питания и гидрорегулирования (при условии применения резервирования) в режиме горячей замены без прерывания работоспособности комплекса. При этом большинство компонентов системы (таких, как вычислительные узлы, блоки питания, сетевые и инфраструктурные компоненты и т.д.) — это программно-определяемые компоненты, позволяющие существенно упростить и ускорить как начальное развёртывание, так и обслуживание, и последующую модернизацию системы. Жидкостное охлаждение всех компонентов обеспечивает длительный срок их службы.

О надёжности решений на базе архитектуры «РСК Торнадо» свидетельствует факт промышленной эксплуатации подобного рода систем российскими заказчиками с 2009 года. Кроме нового проекта в ОИЯИ, такие системы установлены и активно используются для моделирования и расчётов широкого спектра научно-исследовательских и реальных промышленных задач в Санкт-Петербургском политехническом университете Петра Великого (СПбПУ), Межведомственном суперкомпьютерном центре Российской академии наук (МСЦ РАН), Сибирском суперкомпьютерном центре (ССКЦ) ИВМиМГ СО РАН, Южно-Уральском государственном университете (ЮУрГУ), Институте океанологии имени П. П. Ширшова РАН, Московском физико-техническом университете (МФТИ), Росгидромете и у других заказчиков из различных отраслей промышленности и направлений деятельности, таких как авиамоторостроение, энергетика, компьютерная графика, нефтегазовая отрасль и другие.

Материалы по теме:

Источники:

Постоянный URL: http://servernews.ru/967645
17.03.2018 [11:25], Алексей Степин

TOP500: бенчмарк HPCG набирает популярность, вытесняя HPL

На протяжении многих лет основным тестовым инструментом для измерения производительности суперкомпьютеров и кластерных систем был пакет High Performance Linpack (HPL), причём, таковым он считался де-факто. Продержался этот пакет в таком статусе четверть века, что в мире информационных технологий означает не одну эпоху: в 1993 году самым мощным процессором с архитектурой x86 был Intel Pentium (P5), но процветали также архитектуры MIPS (R4400), SPARC V8/V9, DEC Alpha и POWER2. Но у HPL есть одна проблема: тест хорошо подходит для «прогрева» только что смонтированной системы, и в лучшем случае предоставляет собой не самый точный индикатор того, насколько хорошо она будет выполнять научные и инженерные задачи.

1992 год: одно из воплощений процветавших тогда архитектур, процессор  DEC Alpha 21064 (EV4)

1992 год: одно из воплощений процветавших тогда архитектур, процессор DEC Alpha 21064 (EV4)

Команда разработчиков альтернативного тестового пакета HPCG (High Performance Gradients) продвигает своё детище уже довольно давно, при этом статистика производительности собирается с 2014 года, что, конечно, не идёт в сравнение со сроками HPL, но всё же популярность новинки постоянно растёт. Создатель HPCG считает, что Linpack на сегодня свою задачу выполнил и более не отвечает требованиям времени. В этом есть смысл: HPL использует богатые на вычисления алгоритмы с небольшими, «плотными» структурами данных, но современные приложения могут задействовать (и часто задействуют) огромные распределенные массивы при менее интенсивных вычислениях. Примером могут послужить задачи класса Big Data, но создатели HPCG используют и другие актуальные примеры, например, моделирование распределения давлений в потоке жидкости, где также сильна нагрузка на подсистему памяти.

Одно из многочисленных сердец комплекса K: чип SPARC64 VIIIfx. 128 гигафлопс, 45 нм

Одно из многочисленных сердец комплекса K: чип SPARC64 VIIIfx. 128 гигафлопс, 45 нм

В число типичных для сегодняшнего дня проектов входят задачи машинного обучения, финансовая аналитика, системы защиты от электронного мошенничества — и все они серьёзно зависят от производительности системы при случайном обращении к памяти. И в этом плане HPCG гораздо лучше отвечает веяниям нового времени, нежели HPL, поскольку последний тест не нагружает подсистему памяти — во всяком случае, сколько-нибудь серьёзно по нынешним меркам. Сама ситуация в сфере высокопроизводительных вычислений действительно такова, что узкими местами уже давно являются не процессоры, а подсистемы памяти и межузловой коммуникации. Количество процессоров увеличить легко, но гораздо сложнее «прокормить» их так, чтобы вычислительные ядра не простаивали попусту, и именно поэтому подсистемы памяти также нуждаются в тщательном тестировании, что может предложить HPCG. Итог любопытный и похож он более всего на ведро ледяной воды на голову энтузиастов супервычислений: результаты HPCG нередко оказываются гораздо скромнее показателей, достигнутых в HPL.

Десятка лучших систем по данным тестового комплекса HPCG. Обратите внимание на КПД

Десятка лучших систем по данным тестового комплекса HPCG. Обратите внимание на КПД

Из 181 протестированной системы мощностью от 1 петафлопса в HPCG подобного показателя не смогла показать ни одна. Это должно серьёзно охладить пыл энтузиастов, вещающих об «эре петафлопсов», вполне закономерно возвращая их в предыдущую «эру терафлопсов». В настоящее время лидером в HPCG является комплекс с простейшим названием K, запущенный в 2011 году в Институте физико-химических исследований в городе Кобе, Япония. Он показывает 602,7 терафплоса, что составляет лишь 5,3 % от теоретической пиковой производительности. По всей видимости, стать победителем этой системе помогла фирменная шестимерная система межузловых соединений под названием Tofu (Torus Fusion). Основой K являются процессоры SPARC64 VIIIfx, хотя и x86 нашлось место в десятке лидеров: второе место занимает машина NUDT, построенная на базе связки Xeon и Xeon Phi. Скромные показатели эффективности неоспоримо свидетельствуют о том, что разработчикам суперкомпьютеров следует сконцентрировать свои усилия на улучшении характеристик подсистем памяти, хранения данных, а также межузловых соединений. Процессорных же мощностей в 2018 году более чем достаточно.

Постоянный URL: http://servernews.ru/967110
21.02.2018 [14:36], Геннадий Детинич

Завершена разработка спецификаций Gen-Z Core Specification 1.0

Организация Gen-Z Consortium сообщила о завершении разработки спецификаций Gen-Z Core Specification 1.0. Работа над спецификациями Gen-Z формально началась в октябре 2016 года, когда из ряда крупнейших и не очень крупных компаний был создан одноимённый консорциум. Его основателями стали компании AMD, ARM, Broadcom, Cray, Dell EMC, Hewlett Packard Enterprise, Huawei, IDT, Micron, Samsung, SK Hynix, и Xilinx. Сегодня консорциум насчитывает около 50 активных участников. Впрочем, два крупных игрока на рынке вычислительных систем отказались в него войти — это компании Intel и NVIDIA.

Интерфейс и протокол Gen-Z открытый и свободен от лицензионных сборов, хотя за его использование в разработках, очевидно, придётся внести определённую оплату. Потенциально Gen-Z может заменить шину PCI Express в тех случаях, когда необходимо концентрироваться на работе с данными и носителями. В этом суть необходимости создания нового интерфейса — задержки при обращении к памяти в многоядерном окружении начали достигать критических для работы приложений значений. Переход на новый протокол и новые межсоединения обещает снизить латентность обращения к памяти до 100 нс и быстрее. За эту идею, кстати, вступлением в консорциум проголосовали все производители памяти.

Память станет «центром вселенной» инетрфейса Gen-Z

Память станет «центром вселенной» для интерфейса Gen-Z

Получить доступ к спецификациям Gen-Z Core Specification 1.0 после регистрации на сайте могут все желающие. Готовность спецификаций также означает, что разработчики могут приступать к созданию решений с поддержкой нового интерфейса и IP-блоков для интеграции в сторонние разработки. Ожидается, что в течение 2018 года появится много практических решений с использованием нового стандарта.

Постоянный URL: http://servernews.ru/965961
29.01.2018 [14:29], Сергей Юртайкин

РСК вошла в число «Национальных чемпионов»

Группа компаний РСК, разработчик суперкомпьютерных систем и высокопроизводительных платформ для дата-центров, сообщила об участии в проекте «Национальные чемпионы» Минэкономразвития России.

Инициаторы этого проекта ставят своей целью обеспечение опережающего роста российских частных высокотехнологических экспортно-ориентированных компаний и оказание содействия в создании на их базе в будущем транснациональных компаний-лидеров с российскими корнями и инновациями.

32 новых участника проекта «Национальные чемпионы» были выбраны среди победителей Национального рейтинга российских быстрорастущих технологических компаний «ТехУспех – 2017», организованного «Российской венчурной компанией» (РВК) при поддержке Минэкономразвития. РСК стала лауреатом «ТехУспех – 2017» в категории «Малый бизнес».

«Нам очень приятно получить столь высокое признание многолетнего и напряжённого труда всего коллектива специалистов РСК, позволившего компании занять лидирующие позиции не только в России, но и на мировом суперкомпьютерном рынке, опережая именитых западных конкурентов по технологическому уровню развития решений на несколько лет вперед», — отметил генеральный директор РСК Александр Московский.

Постоянный URL: http://servernews.ru/964784
Система Orphus