Материалы по тегу: периферийные вычисления

13.12.2019 [20:55], Алексей Степин

OrbitsEdge и HPE разрабывают космический спутник с микро-ЦОД

В ближайшем будущем нас ждёт достаточно интенсивная коммерциализация космоса ‒ хотя бы в сфере телекоммуникаций.

Но техника для этого потребуется особая, поскольку к космической электронике предъявляется целый ряд особых требований. Компания OrbitsEdge объявила о начале сотрудничества с Hewlett Packard Enterprise для создания космической инфраструктуры так называемых периферийных (edge) вычислений.

OrbitsEdge может стать первой компанией, которая создаст коммерческие микро-ЦОД, способные работать в космосе. В основу этих спутниковых микро-ЦОД ляжет платформа HPE Edgeline Converged Edge System в специальном, защищённом от космического излучения исполнении. У HPE уже есть небольшой опыт создания относительно мощных вычислительных систем для МКС — суперкомпьютер Spaceborne

OrbitsEdge не без оснований полагает, что «в космосе данные должны обрабатываться там же, где получены», поскольку именно передача информации на Землю может стать узким местом ‒ как в плане пропускной способности спутниковых каналов связи, так и плане времени отклика.

HPE Edgeline EL8000: защищённый микро-ЦОД, не требующий обслуживания

HPE Edgeline EL8000: защищённый микро-ЦОД, не требующий обслуживания

Интересно отметить, что в одном, а именно в габаритах, OrbitsEdge не планирует отходить от земных стандартов ‒ будущий космический микро-ЦОД SatFrame 445 будет представлять собой 19-дюймовую 5U-стойку. Питаться «космическая серверная» будет от солнечных панелей с попутной зарядкой аккумуляторов для обеспечения функционирования на ночной стороне планеты.

Компоненты платформы SatFrame

SatFrame: A - система питания, B - система термостабилизации, C - шасси, D - модуль авионики, E - микро-ЦОД, F - коммуникационная система

Использоваться подобные «вычислительные спутники» могут в самых разных целях: для Интернета вещей, космической фотосъёмки, предсказания погоды, навигации, в качестве коммуникационных. В будущем разработчики не исключают даже такой экзотики, как поддержка добычи ресурсов из астероидов и космический туризм. Кроме того, уровень защиты позволит использовать новинку и на Земле ‒ в агрессивных условиях, исключающих работу обычной вычислительной техники.

Проект SpaceBelt предполагает создание защищённого облачного хранилища в космосе

Проект SpaceBelt предполагает создание защищённого облачного хранилища в космосе

Помимо прочего, «космические ЦОД» могут применяться и там, где нужна максимальная безопасность хранения информации. Например, компания Cloud Constellation Corp разрабатывает серию из 10 низкоорбитальных спутников под названием SpaceBelt ‒ первое в мире космическое облачное хранилище, обеспечивающее непревзойдённый уровень безопасности.

Постоянный URL: http://servernews.ru/999719
11.12.2019 [21:02], Владимир Романченко

Scale Computing представила HCI-устройство HE150 на базе Intel NUC

Компания Scale Computing объявила о пополнении линейки решений для гиперконвергентной инфраструктуры HC3 Edge новым сверхкомпактным устройством HE150 на базе платформы Intel NUC.

Система HE150, впервые показанная в рамках конференции Gartner IT Infrastructure, Operations & Cloud Strategies в Лас-Вегасе, представляет собой недорогое решение с поддержкой флэш-памяти NVMe и платформы Scale Computing HC3 для периферийных (edge) вычислений и устройств интернета вещей. В Scale Computing позиционируют HE150 как систему для развертывания в небольших кластерах, где высокая доступность вычислений вылилась бы в значительные затраты.

В дополнение, устройство HE150 также поддерживает сетевую архитектуру HC3 Edge Fabric, что не требует применения сетевого коммутатора, упрощает подключение в пограничных сетях и в итоге значительно снижает TCO.

HCI-устройство Scale Computing HE150

HCI-устройство Scale Computing HE150

За счет компактного форм-фактора – размером примерно с три смартфона, система HE150 может быть развернута практически в любом месте, не требуя стойки или серверного шкафа. Возможности HE150 также включают аварийное восстановление, HA-кластеризацию, непрерывные обновления и интегрированную защиту данных. HE150 также позволяет предприятиям оперативно подстраиваться к нагрузке в зависимости от сиюминутной востребованности граничных вычислений.

HE150 может быть сгруппировано с тремя и более устройствами. За счет использования платформы Intel NUC, система HE150 обеспечивает производительность, достаточную для обработки широкого спектра рабочих нагрузок. Компактная конструкция, небольшое энергопотребление и набор интерфейсов обеспечивают готовность устройства для промышленного применения и приложений IoT.

Помимо анонса HE150, Scale Computing также объявила о том, что ПО HC3 Edge, доступное ранее только крупным клиентам и партнерам, отныне получило общую поддержку для систем на базе Intel NUC от сторонних поставщиков. В ближайшее время ПО HC3 Edge будет доступно для новых безвентиляторных систем Lenovo Smart Edge.

За кластер из трех узлов HE150 производитель будет просить не менее $5000. Поставки новинки уже начались.

Постоянный URL: http://servernews.ru/999544
29.11.2019 [18:45], Игорь Осколков

SC19: HPC-решения Lenovo ThinkSystem — от Тфлопс до Пфлопс один шаг

Подход Lenovo к HPC-решениям отличается от, так сказать, «классического». В основу положены унификация и масштабируемость. Под первым подразумевается не только снижение числа различающихся шасси и узлов с целью повышения совместимости, но и принципиальное использование исключительно стандартных 19” стоек. В отличие от решений, например, Cray или Atos, которые используют собственные широкие узлы и стойки, серверы Lenovo позволяют обновить парк машин без изменений уже имеющейся инфраструктуры ЦОД. Причём речь не только о питании, охлаждении и сети — даже планировка и лифтовое оснащение дата-центра могут оказаться непригодными для транспортировки и инсталляции нестандартных решений.

Узел Lenovo ThinkSystem SD650

Узел Lenovo ThinkSystem SD650

К тому же у Lenovo имеются версии одних и тех же машин как с прямым водяным Direct Water Cooling (DWC), так и с привычным воздушным охлаждением. Кроме того, несколько лет назад Lenovo ещё больше упростила процесс установки, предоставляя заказчикам готовые, собранные и протестированные решения, которые на месте собираются как конструктор Lego с минимальными усилиями со стороны персонала ЦОД. Унификация ведёт и к лёгкой масштабируемости — компания не делает принципиальных различий между системами в пару петафлопс и в пару сотен петафлопс. Если надо комплекс в половину стойки, поставят его. Если надо два десятка стоек — тоже не проблема.

Собственно говоря, на выставке нам удалось пообщаться с Риком Купманом (Rick Koopman), отвечающим в Lenovo за решения для HPC и гиперскейла в регионе EMEA. Нетрудно догадаться, что в компанию он пришёл из IBM. Он же провёл небольшую экскурсию по стенду и ответил на несколько вопросов о работе и планах компании. Но начнём мы со стенда.

Шасси для ThinkSystem SD650

Шасси для ThinkSystem SD650

Пожалуй, ключевым решением для HPC являются машины серии ThinkSystem SD650 для шасси NeXtScale n1200 высотой 6U, которое позволяет разместить 12 узлов и предоставляет 6 общих блоков питания и 10 кулеров. Каждый узел имеет два процессора Intel Xeon Scalable (Skylake или Cascade Lake), 12 слотов памяти (DDR4 с Intel Optane DCPMM), разъёмы ML2 (Mezzanine LOM) и PCIe x16 для 100Gb-адаптеров EDR InfiniBand или Intel Omni Path, дисковую корзину для 2,5” SSD 2 × 7-мм SATA или 1 × 15-мм NVMe + пары M.2 с аппаратным RAID1, а также два 1GbE-порта для служебных нужд.

Отличительной чертой данного решения является прямое жидкостное охлаждение DWC Lenovo Neptune, а точнее говоря, её строение. Компания отдельно подчёркивает, что, во-первых, абсолютно все компоненты охлаждаются именно жидкостью DWC, а во-вторых, конкретно для CPU, которые в это цепочке стоят первыми, используются отдельные потоки. То есть на входе поток делится пополам и идёт сразу через два узла, и в каждом из них снова разделяется надвое и омывает оба процессора одновременно. Это, с одной стороны, позволяет использовать самые горячие модели CPU (с TDP до 240 Вт), причём поддерживать их работу на турбо-частотах гораздо дольше. С другой стороны, такой подход гарантирует единообразие работы обоих CPU и предсказуемость, что крайне важно в HPC-среде.

Узел Lenovo ThinkSystem SD350

Узел Lenovo ThinkSystem SD350

Таким образом, КПД теплоотвода достигает 90%, что позволяет использовать на входе горячую воду (буквально, до 50 °C) и достигать разницы температур на входе и выходе в 25 °C, что, в свою очередь, даёт возможность использования фрикулинга и сухих градирен, а не чиллеров. А это очевидная экономия на электроэнергии. Lenovo говорит о сокращении энергопотребления на 30-40% при попутном росте производительности в сравнении с обычным воздушным охлаждением. При этом для Lenovo Neptune это не предел — будущие шасси будут иметь уже девять, а не шесть блоков питания. Они тоже получат жидкостное охлаждение как и грядущие ускорители NVIDIA в форм-факторе SXM3 с TDP на уровне 300 Вт, для которых эти БП и понадобятся.

Thermal Transfer Module

Thermal Transfer Module

Впрочем, о гибридных и воздушных системах охлаждения Lenovo тоже не забывает и старается сделать их более эффективными. В частности, машины ThinkSystem SD530 для шасси D2, которые находятся где-то посередине между классическими HPC-системами и просто высокоплотными решениями, ту же задачу по поддержке равных температур у обоих CPU внутри узла решают иным путём. Первый CPU, стоящий на пути воздушного потока, имеет обычный радиатор, а второй, за ним, может оснащаться Т-образным радиатором Thermal Transfer Module с тепловыми трубками, который за счёт такой формы имеет большую площадь оребрения и захватывает более холодный поток, проходящий мимо первого процессора. Это позволяет даже для воздушной СО использовать CPU с TDP до 205 Вт.

Сама же SD530 является привычной модульной 2U-системой для четырёх узлов с общим для всех блоком, содержащем кулеры, два БП, 16 слотов PCIe и сетевые интерфейсы. Узлы могут быть высотой 1U и содержать два процессора Intel Xeon Scalable + 16 слотов памяти + адаптер для пары M.2. Или же 2U — всё то же самое + два полноразмерных PCIe-ускорителя. Стоит ждать и вариантов с ускорителями формата SXM3. Все типы узлов поддерживают установку 2,5” накопителей: 6 × SAS/SATA или 4 × NVMe на каждый узел.

Шасси Lenovo ThinkSystem SR670

Шасси Lenovo ThinkSystem SR670

Для задач, активно использующих ускорители в формате PCIe-карт, у Lenovo есть отдельное 2U-решение — ThinkSystem SR670. Платформа базируется на двух CPU Intel Xeon Scalable, имеет 24 разъёма для модулей памяти, предлагает 8 посадочных мест для 2,5” SATA-накопителей и пару слотов M.2. Отличительная черта конструкции шасси — 3 корзины с разъёмами PCIe. Одна предназначена для установки сетевых адаптеров, она имеет 2 слота x16 и 1 слот x4. Две другие, съёмные, имеют по четыре слота каждая. В каждую из них можно установить либо два полноразмерных ускорителя с шиной x16, либо четыре четыре однослотовых ускорителя с шиной x8.

Корзины ускорителей ThinkSystem SR670

Корзины ускорителей ThinkSystem SR670

Помимо аппаратной части не менее важна и программная. Совместно с суперкомпьютерным центром университета Барселоны Lenovo уже некоторое время занимается проектом EAR — Energy Aware Runtime. EAR позволяет оценить реальную эффективность приложений, выявить зависимость производительности от частоты и, как следствие, энергопотребления кластера, суперкомпьютера или ЦОД в целом. После оценки EAR автоматически управляет работой системы в целом и позволяет добиться не только повышения энергоэффективности, но и предсказуемости времени вычислений. Ведь порой бывает так, что за 1% прироста скорости работы приходится «заплатить» ростом частоты и тепловыделения CPU на десятки процентов, что далеко не всегда оправданно.

Впрочем, все эти решения были представлены в последние год-полтора, а вот из действительно свежих продуктов, которые как раз отвечают современным тенденциям, на SC19 Lenovo показала edge-сервер ThinkSystem SE350 для пограничных или, как их ещё называют, периферийных вычислений. Такие машины ставятся в буквальном смысле на границе сети и (пред-) обрабатывают данные с датчиков интернета вещей, умных устройств, промышленного оборудования, интеллектуальных систем видеонаблюдения и так далее. В общем, в тех случаях, когда потоки данных разумнее препарировать на месте, или когда иного выбора просто нет.

Lenovo ThinkSystem SE350

Lenovo ThinkSystem SE350

К таким системам предъявляются особые требования, которые не всегда легко исполнить одновременно: высокая производительность, компактность, автономность, малое энергопотребление, повышенная надёжность, готовность работать в неблагоприятных условиях. С приходом 5G подобные системы станут крайне востребованными в сочетании с ИИ в больших ЦОД, и ближайшее будущее как раз за ними, считает Рик Купман. В качестве примера подобного удачного решения он привёл опыт компании, занимающейся ветроустановками, которая смогла за счёт объединения прогнозов погоды из внешнего источника и данных с множества датчиков турбин по всему миру резко повысить эффективность и надёжность работы последних, получив возможность интеллектуально управлять ими и заранее предсказывать поломки.

Что касается SE350, то это узкий 1U-сервер на базе Intel Xeon D-2100 — до 16 ядер и до 256 Гбайт RAM. Дисковая подсистема поддерживает установку двух накопителей M.2 2280 и до десяти M.2 22110. Шасси позволяет установить низкопрофильную карту вроде NVIDIA T4 или другой ускоритель на базе FPGA/ASIC/GPU. Сетевых интерфейсов на выбор великое множество: доступны проводные порты 1/10GbE в различных сочетаниях (в том числе с коммутатором), адаптеры Wi-Fi/Bluetooth и модемы 3G/4G, а в будущем и 5G. Питается сервер от внешнего источника DC 48 В. Возможна установка как отдельной машины, так и шкафа на 2-4 узла вкупе с БП. Устройство рассчитано на работу в диапазоне от 0 до 55 °C, есть варианты исполнения с пылевлагозащитой. Кроме того, предусмотрены различные программные и аппаратные системы защиты данных и оборудования.

По словам представителя Lenovo, у нас в стране основными HPC-заказчиками являются ведущие научно-исследовательские и образовательные институты и университеты, крупнейшие государственные и частные компании. Любопытно, что в целом растёт интерес к GPU-решениям. Дело не только в возросшей роли машинного обучения, но и в активном портировании имеющихся приложений с CPU на GPU.

Постоянный URL: http://servernews.ru/998448
07.11.2019 [17:01], Геннадий Детинич

Похоже, полностью автономные ЦОД придётся подождать

Три года назад компания Microsoft доложила об успешном завершении испытания полностью автономного модуля ЦОД, который в работоспособном состоянии провёл три месяца на дне океана.

Затем проект под кодовым именем Natick был расширен до 12 стоек в 12-метровом контейнере диаметром 2,4 метра. Контейнер погрузили на дно океана на глубину около 35 метров вблизи шотландского побережья в графстве Оркни. С тех пор прошло чуть больше года, но никаких новостей от Microsoft по этой теме нет.

«Эксперимент продолжается», ― прокомментировали в Microsoft запрос со стороны профильных журналистов. На основании ответа Microsoft и по другим признакам специалисты интернет-ресурса Datacenter Dynamics сделали вывод, что полностью автономные ЦОД придётся подождать.

Первый опытный автономный ЦОД Microsoft после 105 дней работы на дне океана

Первый опытный автономный ЦОД Microsoft после 105 дней работы на дне океана

Между тем, концепция Интернета вещей требует снизить задержки при обработке массивов данных с датчиков, что означает развитие пограничных (периферийных) вычислений ― как можно ближе к этим самым датчикам. При этом всё должно быть автоматизировано. Экономически нецелесообразно тратить на администрирование огромнейшей массы датчиков людские ресурсы. Полностью автоматические ЦОД могут и должны стать центрами по обслуживанию сферы IoT.

Кроме очевидной экономии на зарплате персоналу, ЦОД также можно лишить комфорта, необходимого работникам и тоже затратного ― это расходы на кондиционирование и отопление для поддержания приятной телу температуры, широкие проходы между стойками, наконец, освещение рабочих помещений. Обслуживающие роботы могут перемещаться в узких пространствах в полной темноте и любых температурах.

Внутреннее устройство подводного ЦОД Project Natick (источник фото: Франк Бетермин)

Внутреннее устройство подводного ЦОД Project Natick (источник фото: Франк Бетермин)

Также многочисленные исследования (например, института Ponemon) показывают, что наиболее часто сбои в ЦОД происходят по вине обслуживающего персонала, тогда как оборудование становится всё надёжнее и надёжнее. Интеллектуальные системы контроля над серверным оборудованием могут работать быстрее и с меньшим количеством ошибок.

С идеей роботизированных ЦОД ранее активно носилась компания EdgeConneX ― специалист по ЦОД небольшого размера, и компания LitBit, которая обещала создать ИИ-платформу для автоматизированных ЦОД. Увы, отмечает источник, все они давно не проявляли признаков жизни на данном направлении. Вкупе с молчанием Microsoft по проекту Natick это заставляет подумать о том, что время полностью автономных ЦОД ещё не пришло и вряд ли придёт в обозримом будущем.

Процесс погружения ЦОД Project Natick (источник фото: Скотт Эклунд/Red Box Pictures)

Процесс погружения ЦОД Project Natick (источник фото: Скотт Эклунд/Red Box Pictures)

Некоторые крупные корпорации категорически отвергают идею автономных ЦОД, предпочитая держать на площадках обученный персонал, хотя небольшие компании готовы отказаться от услуг специалистов, если автономные ЦОД вдруг появятся на горизонте.

Постоянный URL: http://servernews.ru/997138
06.11.2019 [09:27], Сергей Юртайкин

Периферийные вычисления произведут фурор в 2020 году

В 2020 году произойдёт всплеск спроса на периферийные (edge) вычисления в корпоративном секторе, прогнозируют в исследовательской компании Forrester Research.

По словам экспертов, феномен периферийных вычислений в первую очередь связан с Интернетом вещей. Кроме того, интерес к этой технологии в следующем году будут подстёгивать компании, пользующиеся вычислительными решениями по мере необходимости и приложениями, которые обрабатывают данные в режиме реального времени.

На этом фоне операторы связи станут играть более важную роль на рынках облачных и распределённых вычислений. CDN-операторы и поставщики услуг колокации могут стать привлекательными целями для поглощения телекоммуникационными гигантами, которые по тем или иным причинам запоздали с выходом на облачный рынок и теперь хотят наверстать упущенное в периферийных вычислениях. Они также активно инвестируют в проекты Open Source.

Но самое большое влияние телекома на периферийные вычисления будет проявляться по мере распространения 5G-сетей, говорят в Forrester. Хотя первое время такие сети будут доступны только в крупных городах, этого будет достаточно для того, чтобы компании пересмотрели своё отношение к периферийным вычислениям.

По прогнозам специалистов, наибольшей популярностью на рынке будут пользоваться решения, созданные несколькими производителями, поскольку немногие вендоры имеют собственные продукты, которые рассчитаны на все области IoT и периферийных вычислений.

Постоянный URL: http://servernews.ru/997020
31.10.2019 [13:30], Владимир Мироненко

EdgeMicro начинает развёртывание «пограничных» контейнерных микро-ЦОД

Стартап EdgeMicro после двух лет подготовки объявил о начале развёртывания своих контейнерных ЦОД в трёх регионах. К концу месяца микро-ЦОД, которые перевозятся с помощью грузовиков, будут установлены рядом с базовыми станциями сотовой связи в Остине (Техас) и Тампе (Флорида).

В Роли (Северная Каролина) «пограничный» (edge) ЦОД появится немного позже.

Компания заявила, что у неё уже есть клиенты для этих первых сервисов колокации — по данным DCK это, в первую очередь, сверхкрупные ЦОД и провайдеры контента. Параллельно EdgeMicro занимается выбором участков и оформлением разрешений на ведение деятельности ещё в 20 городах. Как ожидается, эти новые микро-ЦОД будут запущены в 2020 году.

«Речь идёт о гораздо большем, чем три объекта, — заявил Джейсон Бур (Jason Bourg), вице-президент по продажам EdgeMicro. — Речь идёт о том, что команда EdgeMicro заключила партнёрские отношения с лидерами отрасли, чтобы сделать эти MDC [модульные центры обработки данных] важной частью их ИТ-стратегий. Мы начинаем с этих первоначальных объектов и планируем быстро масштабироваться до сотен локаций».

Вскоре после начала работы в 2017 году EdgeMicro сообщила ресурсу DCK, что планирует первоначально развернуть 30 таких ЦОД в городах, где проблемы с задержками доступа к сети наиболее критичны, указав, что будет искать местоположения рядом с вышками сотовой связи, обслуживающими более 100 000 человек в радиусе от 3 до 5 миль (5–8 км).

Постоянный URL: http://servernews.ru/996605
26.10.2019 [18:40], Геннадий Детинич

SiFive подняла планку производительности RISC-V: представлены ядра серии U8

Открытая архитектура RISC-V наращивает мускулы. Один из пионеров среди разработчиков базовых ядер RISC-V компания SiFive представила новую 8-ю серию ядер.

В настоящий момент SiFive раскрыла детали о ядрах U84 и позже добавит к ним подробности о ядрах U87. Ядра U84 уже доступны для лицензирования и оптимизированы для производства с техпроцессами вплоть до 7-нм.

Это решения, нацеленные на максимальную энергоэффективность вкупе с минимальным потреблением и с максимально уменьшенной площадью кристалла. Ядра U87 будут ориентированы на максимальную производительность и обработку векторов.

Как сообщают в SiFive, ядра U84 в 3,1 раза производительнее популярных стандартных ядер U74. Это достигается как за счёт архитектурных улучшений (2,3-кратном приросте числа исполняемых за такт инструкций), так и за счёт 1,4-кратного увеличения максимального значения тактовой частоты (до 2,6 ГГц в 7-нм техпроцессе).

Как показано на графике ниже, на изолированных процессах ядра U84 в 5,3 раза быстрее, чем ядра SiFive U54, а при исполнении в 7-нм техпроцессе ядра U84 оказываются в 7,2 раза производительнее 28-нм ядер U54.

Если сравнивать их с ARM Cortex-A72, добавляют разработчики, то ядра U84 показывают полуторакратный прирост производительности на Ватт и лучшее использование площади кристалла (2-кратное по эффективности).

U84-кластер может быть собран из четырёх ядер или меньше, но архитектура допускает согласованные гетерогенные связки ядер разных поколений и включение в платформу ускорителей сторонних разработчиков. Кроме того, число конвейеров в ядре может быть меньше максимального значения из 12 штук.

Также по желанию лицензиата может быть уменьшена глубина очереди команд. Всё это и многое другое делает решения SiFive весьма масштабируемыми в широких пределах.

При всём прочем новые ядра чрезвычайно компактные. Если исключить кеш L2 объёмом 2 МБ, то одно ядро U84 уместится на площади 0,28 мм2. Это делает SiFive U84 удобным решением для организации первичных периферийных вычислений, что будет ценно для ИИ, машинного обучения, вещей с подключением к Интернету и многого другого. Немного подробнее об архитектуре ядер SiFive U84 можно узнать по этой ссылке.

Постоянный URL: http://servernews.ru/996303
24.10.2019 [14:39], Геннадий Детинич

BrainChip получила патент, приближающий эру периферийных ИИ

Австралийская компания BrainChip интересна разработкой нейроморфной SoC Akida с впечатляющими энергоэффективным характеристиками и, что важно, не в ущерб производительности.

Подобная заявка покрывает сферу периферийных решений с ИИ, когда вопрос с питанием и производительностью стоит не просто остро, а во главе угла.

Но компания создаёт не только платформу. Он также разрабатывает основополагающую технологию для нейроморфных вычислений с использованием ускорителей так называемых спайковых нейронных сетей.

Патенты BrainChip, например, в своих исследованиях используют такие компании как IBM, Qualcomm, Samsung и Hewlett Packard. Действующий патентный пул BrainChip весьма скромный ― 11 патентов, часть из которых всё ещё находится в разработке. Но наследие компании продолжает расти.

Как докладывает HPC Wire, BrainChip получила патент США за номером 10410117, который относится к динамической работе нейронной сети в составе ИИ-ускорителя. Это могут быть блоки в составе процессоров и ускорителей сторонних компаний, но BrainChip, безусловно, разработала эту технологию, в первую очередь, под себя.

Кстати, совсем скоро мы можем услышать о воплощении SoC Akida в кремнии. Во всяком случае, компания обещала начать производство решений в третьем квартале 2019 года.

Что касается нового патента BrainChip, то он описывает технологию, когда [весовые] значения генерируются и сохраняются в синаптических регистрах SoC, где используются для создания модели обучения. Сами модели хранятся в устройстве на базе SoC в виде библиотек и могут быть использованы для обучения другого устройства. Грубо говоря, одна камера наблюдения может научиться распознавать определённого человека и обучить этому всю сеть аналогичных камер.

На основе представленной технологии разработчики смогут создавать компактные ИИ-платформы для помощи водителям, для автопилотов, компьютерного зрения в целом, для систем дополненной и виртуальной реальности, для анализа звуков и речи, промышленного IoT и многого другого, о чём мы пока даже не смеем мечтать.

Постоянный URL: http://servernews.ru/996165
23.10.2019 [18:53], Алексей Степин

SuperMicro осваивает NVIDIA EGX

В связи со вчерашним анонсом NVIDIA свои решения для платформы EGX представили GIGABYTE и Tyan. Не могла остаться в стороне компания Super Micro, которая обновила сразу несколько моделей серверов серии SuperServer: 5019D-FN8TP, 1019D-FHN13TP, 1019P-FHN2T, E403-9D-16C-FN13, E403-9P-FN2T и 2029GP-TR.

Как и решения других компаний, они базируются на ускорителях NVIDIA T4.

Super Micro 5019D-FN8TP представляет собой недорогое решение с процессором Xeon D-2146NT (8C/16T, 80 Ватт) в укороченном корпусе 1U. Поскольку полноразмерный слот PCIe тут всего один, то и ускоритель NVIDIA является единственным.

Supermicro SuperServer 5019D-FN8TP: когда Xeon D достаточно

Supermicro SuperServer 5019D-FN8TP: когда Xeon D достаточно

Модель 1019D-FHN13TP относится к тому же классу, но имеет более развитую сетевую часть и поддерживает установку двух полноразмерных плат T4. Сервер

1019P-FHN2T аналогичен по габаритам и возможностям расширения предыдущему, но процессор здесь более мощный: поддерживается установка любых моделей Xeon Scalable (LGA 3647) с теплопакетом до 205 ватт.

Supermicro E403: когда нужен нестандартный корпус

Supermicro E403: когда нужен нестандартный корпус

Модель E403-9P-FN2T использует корпус другого формата (Box PC) и базируется также на процессоре Xeon Scalable (LGA 3647). В него можно установить уже три платы NVIDIA T4. Аналогичная ему модель E403-9D-16C-FN13 базируется на чипе Xeon D-2183L (16С/32Т, 100 Ватт).

SuperMicro SuperServer 2029GP-TR: бескомпромиссная мощность

SuperMicro SuperServer 2029GP-TR: бескомпромиссная мощность

Но самым мощным решением в серии NGC является 2029GP-TR. Это сервер в 2U-корпусе c двумя сокетами LGA 3647. Он имеет 10 дисковых корзин формата 2,5″ и поддерживает установку до шести плат ускорителей. Про запас остаётся ещё один слот для низкопрофильной карты расширения, например, высокоскоростного сетевого интерфейса. Этот сервер предназначен для наиболее высокопроизводительных реализаций NVIDIA EGX.

Постоянный URL: http://servernews.ru/996112
23.10.2019 [18:19], Алексей Степин

GIGABYTE G191-H44 и Tyan Thunder SX TN76-B7102 готовы к NVIDIA EGX

На днях NVIDIA анонсировала новое программно-аппаратное решение на базе платформы EGX для 5G-сетей и периферийных (edge) вычислений. Одновременно с этим собственные EGX-решения представили и производители серверного оборудования. 

К примеру, GIGABYTE обновила конфигурацию своего сервера G191-H44. Это компактное шасси формата 1U, способное нести на борту до четырёх ускорителей, поддерживает и карты NVIDIA T4.

GIGABYTE G191-H44

GIGABYTE G191-H44: компактность не мешает производительности

Напомним, что T4 построены на чипах с архитектурой Turing, они располагают 2560 ядрами CUDA и 320 тензорными ядрами. Производительность одной такой карты оценивается в 65 Тфлопс в смешанном режиме FP16/32. Мощность вычислений в режимах INT8 и INT4 составляет 130 и 260 Топс, соответственно.

Объём набортной памяти GDDR6 ‒ 16 Гбайт, скорость передачи данных 300 Гбайт/с. Охлаждение пассивное, обеспечивается средствами сервера, тем более что теплопакет не превышает 70 ватт. Платы выполнены в низкопрофильном форм-факторе, что позволяет им легко уместиться в таких корпусах, как у G191-H44.

Обновлённые серверы G191-H44 предназначены для работы в составе гибридных облаков NVIDIA NGC, благо, поддерживается установка новейших сетевых 100GbE-карт Mellanox. Система уже прошла все квалификационные тесты и имеет официальный статус NGC Ready.

Tyan Thunder SX TN76-B7102: простор дискового хранилища

Tyan Thunder SX TN76-B7102: простор дискового хранилища

Аналогичное решение предлагает другой игрок на рынке серверных систем, компания Tyan. Её сервер Thunder SX TN76-B7102 также поддерживает установку до четырёх ускорителей NVIDIA T4, но упакован он не столь плотно, как GIGABYTE G191-H44.

Корпус здесь имеет высоту 2U, что, помимо прочего, позволяет улучшить тепловой режим. К тому же для задач, требующих хранения существенного объёма данных, этот корпус подходит лучше, поскольку имеет 12 полноразмерных отсеков формата 3,5″ с поддержкой горячей замены накопителей. Это могут быть как 12 дисков с интерфейсом SATA, так и комбинация 8 дисков SATA и 4 накопителей NVMe.

Постоянный URL: http://servernews.ru/996102
Система Orphus