Материалы по тегу: hardware

16.08.2024 [14:45], Руслан Авдеев

Эдинбургский университет лоббирует создание первого в Великобритании экзафлопсного суперкомпьютера, от которого новое правительство решило отказаться

Команда Эдинбургского университета активно лоббирует выделение учреждению £800 млн ($1,02 млрд) для строительства суперкомпьютера экзафлопсного класса. Ранее новое британское правительство фактически отказалось продолжать реализацию некогда уже одобренного проекта, ссылаясь на дефицит бюджета.

Ожидалось, что страна выделит почти миллиард долларов на строительство передового суперкомпьютера, причём изначально речь шла об использовании отечественных компонентов. В октябре 2023 года было объявлено, что именно Эдинбург станет пристанищем первой в Великобритании вычислительной машины экзафлопсного уровня. Суперкомпьютер должен был заработать уже в 2025 году. Университет даже успел потратить £31 млн ($38 млн) на строительство нового крыла Advanced Computing Facility.

 Источник изображения: Adam Wilson/unsplash.com

Источник изображения: Adam Wilson/unsplash.com

Однако в начале августа 2024 года британское правительство объявило, что не будет выделять £1,3 млрд ($1,66 млрд) на ранее одобренные технологические и ИИ-проекты. На тот момент представитель Министерства науки, инноваций и технологий (Department for Science, Innovation, and Technology) заявил, что властям приходится принимать «трудные и необходимые» решения.

По данным СМИ, вице-канцлер Эдинбургского университета сэр Питер Мэтисон (Peter Mathieson) пытается лично лоббировать среди министров выделение средств на обещанный суперкомпьютер. В письме сотрудникам университета он отметил, что диалог с Министерством науки, инноваций и технологий продолжится и будет взаимодействовать с академическими и промышленными кругами для возобновления инвестиций. По словам учёного, университет десятки лет был лидером в HPC-сфере Великобритании и до сих пор остаётся центром реализации суперкомпьютерных и ИИ-проектов.

Если средства всё-таки удастся выбить у британских чиновников и система заработает, она будет в 50 раз производительнее нынешней системы ARCHER2. Тем временем в материковой Европе ведётся активная работа над собственными проектами. В частности, начались работы по строительству суперкомпьютера экзафлопсного уровня класса Jupiter на Arm-чипах и ускорителях NVIDIA. Впрочем, весной этого года Великобритания вновь присоединилась к EuroHPC, так что со временем страна сможет поучаствовать в европейских HPC-проектах.

Постоянный URL: http://servernews.ru/1109559
16.08.2024 [09:20], Алексей Степин

От IoT до ЦОД: Akeana, основанная выходцами из Marvell, представила три семейства ядер RISC-V

В 2021 году выходцы из Marvell и Cavium, стоявшие в своё время за созданием серверных Arm-процессоров ThunderX, основали стартап Akeana, который на днях вышел из т.н. скрытого режима и анонсировал RISC-V ядра собственной разработки. Akeana прямо говорит, что планирует бросить вызов Arm, SiFive, Andes и другим разработчикам чипов с архитектурой RISC-V.

За три года Akeana удалось получить от крупных инвесторов, включая Kleiner Perkins, Mayfield и Fidelity, финансирование свыше $100 млн. А на этой неделе Akeana представила целую серию кастомизируемых IP-решений, в том числе три дизайна процессорных ядер с архитектурой RISC-V.

 Источник здесь и далее: Akeana

Источник здесь и далее: Akeana

Остальные решения относятся к экосистеме, которую планирует сформировать Akeana. Это система высокоскоростного интерконнекта SCI (Scalable Coherent Interconnect, совместим с AMBA CHI), блоки контроллера прерываний, IOMMU, систему кластеризации и когерентности кешей, блоки векторных и матричных вычислений для ИИ-нагрузок и многое другое, включая разнообразные микроконтроллеры и подсистемы.

Что касается процессорных дизайнов, то компания представила сразу три серии:

  • Akeana 100: конфигурируемые 32-бит экономичные решения без поддержки внеочередного исполнения, от 4 до 9 стадий, способные работать в системах реального времени. Включают набор инструкций RV32IMAC_Zicsr_Zifencei_Zicbo, до 512 Кбайт памяти DCCM/ICCM, до 64 Кбайт L1-кеша для данных и инструкций, кеш L2 опционально;
  • Akeana 1000: 64 бит с поддержкой многопоточности, 9-стадийный конвейер без ООО или 12-стадийный с OOO, наличие MMU, AXI/ACE (512 бит), набор инструкций RV64GCB_Zicbo, полный профиль RVA22, может использоваться в конфигурации big.LITTLE в сочетании с Akeana 5000, кеш L2 опционально;
  • Akeana 5000: флагманские 64-бит ядра, поддержка многопоточности, 12-стадийный конвейер с OOO, ширина декодирования от 6 до 10, MMU, AXI/ACE (512 бит), набор инструкций RV64GCVBK_Zicbo + USH, полный профиль RVA23, режимы супервизора и гипервизора, векторные расширения (128 бит), расширения Vector Crypto, разделяемый кеш L3.

В каждой из серий анонсировано по три-четыре базовых варианта с разной функциональностью, конфигурацией и объёмами кешей. Наибольший интерес представляет, пожалуй, серия 5000, которая позиционируется в качестве достаточно мощных процессоров для использования как в ПК и ноутбуках (в последнем случае предлагается использовать гетерогенный вариант с Akeana 1000 в качестве «малых» ядер), так и в качестве серверной инфраструктурной основы.

Ядра Akeana поддерживают кластеризацию (до 8 ядер на кластер), но, к сожалению, компания пока не раскрывает пределов масштабирования, тогда как новый дизайн SiFive, как мы уже знаем, позволяет создавать процессоры с числом ядер до 256. Говорить о каких-то реальных прототипах ещё рано, но все три серии ядер Akeana уже доступны для лицензирования клиентами.

Очевидно, что экосистема RISC-V вступает в фазу активного развития: одна за другой компании-разработчики представляют всё новые и новые дизайны процессорных ядер и целых платформ, причём в широчайшем диапазоне характеристик — от экономичных микроконтроллеров до многоядерных серверных решений.

Постоянный URL: http://servernews.ru/1109526
15.08.2024 [22:28], Руслан Авдеев

Supermicro впервые арендовала дата-центр за $600 млн и тут же сдала мощности в субаренду ИИ-облаку Lambda

Производитель оборудования Supermicro в июне арендовал 21 МВт в ЦОД компании Prime Data Centers в Верноне (Калифорния). Datacenter Dynamics сообщает, что в докладе по форме K-8, поданным в Комиссию по ценным бумагам и биржам США (SEC), вендор объявил, что намерена сдать полученные площади и ёмкости стартапу Lambda Labs.

В докладе Supermicro упомянула, что заключила т.н. соглашение Master Colocation Services Agreement относительно дата-центра общей ёмкостью 33 МВт. Supermicro впервые заключила подобную сделку, во всяком случае публично. При этом уже отмечалось, что компания расширяет спектр своей деятельности в сфере ЦОД. Сделка сроком 10 лет оценивается в $600 млн. Сюда входят ежемесячные платежи, счета за энергию и прочие выплаты.

Эти расходы будут компенсироваться Lambda в рамках сублицензионного соглашения (помимо дополнительных ежемесячных платежей). Пока неизвестно, согласилась ли Lambda в рамках сделки покупать серверы у Supermicro. Компания помимо облака Lambda Cloud предлагает покупателям и собственные аппаратные платформы на основе оборудования Supermicro и Gigabyte, а также программный стек для ИИ-задач.

 Источник изображения: Lambda Labs

Источник изображения: Lambda Labs

Lambda намерена привлечь ещё $800 млн для экспансии на рынке дата-центров. Сегодня компания управляет ЦОД в Сан-Франциско (Калифорния) и Аллене (Техас). Стартап CoreWeave, прямой и гораздо более успешный конкурент Lambda Labs, к концу году хочет управлять уже 28 ИИ ЦОД, преимущественно в США. Но и в материковой Европе компания готова вложить $2,2 млрд в развитие своих ИИ ЦОД (и ещё £1 млрд в Великобритании). Ранее CoreWeave попыталась купить за $1 млрд своего же колокейшн-провайдера Core Scientific, но в итоге стороны подписали два 12-летних контракта по аренде мощностей.

Постоянный URL: http://servernews.ru/1109512
15.08.2024 [18:02], Руслан Авдеев

Equinix установил водородные модули питания GeoPura в дублинском ЦОД

Оператор ЦОД Equinix внедрил в дублинском дата-центре IBX технологию резервного питания от водородных элементов ESB Hydrogen Fuel Cell в составе модулей GeoPura, передаёт Datacenter Dynamics. По словам Equinix, компания стремится к внедрению экоустойчивых инфраструктурных решений и работает с ESB и GeoPura над созданием современных генераторов с питанием от водорода. Детали проекта пока не разглашаются. Сейчас Equinix управляет четырьмя IBX-ЦОД (BD1-4) и одним xScale (DB5x) в ирландской столице.

Находящаяся в государственной собственности ирландская компания ESB активно инвестирует в производство и хранение водорода помимо создания собственно ячеек. А основанная в 2019 году GeoPura совместно с Siemens разрабатывает модули питания HPU на основе топливных элементов для замены дизельных генераторов. По некоторым данным, компания привлекла £92 млн ($118 млн) от UK Infrastructure Bank, Barclays Sustainable Impact Capital, GM Ventures, SWEN Capital Partners, Siemens Energy Ventures и др.

Решение GeoPura Hydrogen Power Unit (HPU) представляет собой стандартный 20″ контейнер, заполненный водородными топливными элементами. Он обеспечивает 250 кВт (электричество), 80 кВт (тепло) и имеет ёмкость 216 кВт∙ч. Мощность можно довести до 2 МВт путём объединения несколько контейнеров. Для снабжения HPU компания производит собственный «зелёный» водород. В GeoPurа заявили, что HPU уже используют британское Министерство обороны, Balfour Beatty, National Grid и BBC. К 2033 году компания намерена внедрить более 3600 HPU.

 Источник изображения: ESB

Источник изображения: ESB

Equinix впервые опробовала водородные топливные элементы во Франкфурте в 2013 году, а в 2017-м установили ячейки Bloom в 12 дата-центрах. Также ранее водородные элементы тестировались для питания ЦОД в Сингапуре. В той или иной степени используют водород в качестве источника энергии компании Microsoft, Amazon, Nxtra, NorthC. А Honda тестирует систем из б/у ячеек для резервного питания собственного ЦОД в Калифорнии.

 Источник изображения: GeoPura

Источник изображения: GeoPura

Однако именно в Ирландии остро требуется внедрение новых энергетических технологий после фактического моратория на большинство новых проектов в районе Дублина. Так, Amazon, Google и Microsoft готовы построить собственные линии электропередач, чтобы не нагружать уже существующие и не лишиться ЦОД в Дублине. Одним из примеров новаторства стала Bloom Energy. Компания построит первый в Европе дата-центр с питанием только от твердооксидных топливных ячеек, работающих на газе.

Постоянный URL: http://servernews.ru/1109507
15.08.2024 [16:25], Владимир Мироненко

«Ростелеком» купил за 26,28 млрд рублей дата-центр «Медведково» на 4800 стойко-мест

«Ростелеком» купил дата-центр «Медведково» у комбинированного ЗПИФ «Рентал ПРО» (PNK Group) под управлением ООО «УК «А класс капитал», сообщили «Ведомости». «Сделка закрыта. Сейчас мы завершаем все юридические процедуры и в ближайшее время начнём эксплуатацию», — заявил глава компании Михаил Осеевский на телеконференции для инвесторов, отметив, что покупка является частью реализации стратегии по развитию кластера ЦОД.

Стоимость покупки, согласно пресс-релизу «Рентал ПРО», составила 26,28 млрд руб. Сам фонд приобрёл данный объект за 25,8 млрд руб. ЦОД, согласно более ранним сведениям, находился в управлении 3data, но в договоре была прописана возможность расторжения в случае продажи. Дата-центр уровня Tier III Design включает 4800 стойко-мест (5 кВт) при общей подведённой мощности 36 МВт, а его площадь составляет 24 тыс. м2.

 Источник изображений: «Рентал ПРО»

Источник изображений: «Рентал ПРО»

По оценке iKS-Consulting, компания «Центр хранения данных» (ЦХД, бренд «Ростелеком-ЦОД»), дочернее предприятие и оператор дата-центров «Ростелекома», в 2023 году лидировала на российском рынке ЦОД с 21,4 тыс. стойко-мест. Благодаря сделке общее количество стойко-мест под управлением группы превысило 26 тыс. В тройку лидеров также входили DataPro и IXcellerate с 6500 и 6200 стойко-мест соответственно. Всего в России насчитывается у операторов ЦОД 70 300 стойко-мест (рост год к году — 21 %).

В июне Осеевский сообщил о планах по проведению IPO «Ростелеком-ЦОД» с размещением порядка 10 % акций, отметив, что «Ростелеком» не планирует снижать свою долю в ней ниже контрольной. В настоящее время его доля в «Ростелеком-ЦОД» составляет 55,2 %. Вполне возможно, что IPO «Ростелеком-ЦОД» пройдёт этой осенью. Кроме того, «Ростелеком» сейчас занят консолидацией решений дочерних компаний, включая продуктовые линейки «РТК ЦОД», в единый коммерческий ИТ-кластер.

Постоянный URL: http://servernews.ru/1109503
15.08.2024 [14:57], Руслан Авдеев

Выходцы из Google DeepMind запустили ИИ-облако Foundry

На рынке ИИ-облаков появился очередной провайдер. The Register сообщает, что стартап Foundry Cloud Platform (FCP) объявил о доступности своей платформы, но пока только для избранных. Компания основана в 2022 году бывшим экспертом Google DeepMind Джаредом Куинси Дэвисом (Jared Quincy Davis) и ей придётся конкурировать с Lambda Labs и CoreWeave, которые уже получили миллиарды инвестиций.

Стартап намерен сделать клиентам более интересное предложение, чем просто аренда ИИ-ускорителей в облаке. Так, клиент, зарезервировавший 1000 ускорителей на X часов, получит именно столько ресурсов, сколько заказал. Задача на самом деле не очень простая, поскольку временные отказы вычислительного оборудования возникают довольно часто, а время простоя всё равно оплачивается. В Foudry намерены решить проблему, поддерживая в готовности пул зарезервированных узлов на случай возникновения сбоев основного оборудования.

 Источник изображения: Foundry Cloud Platform

Источник изображения: Foundry Cloud Platform

При этом резервные мощности будут использоваться даже во время «дежурства» для выполнения более мелких задач, соответствующие ресурсы будут предлагаться клиентам по ценам в 12–20 раз ниже рыночных. При этом пользователь таких spot-инстансов должен быть готов к тому, что их в любой момент могут отобрать. При этом состояние текущей нагрузки будет сохранено, чтобы её можно было перезапустить. А если прямо сейчас мощный инстанс не нужен, то его можно «перепродать» другим пользователям.

Также можно задать порог стоимости покупаемых ресурсов, чтобы воспользоваться ими, когда цена на них упадёт ниже заданной. Foundry вообще делает упор именно на гибкость и доступность вычислений, ведь далеко не всем задачам нужны самый быстрые ускорители или самый быстрый отклик. Компания умышленно дистанцируется от традиционных контрактов сроком на год и более. Уже сейчас минимальный срок разовой аренды составляет всего три часа, что для индустрии совершенно нетипично.

 Источник изображения: Foundry Cloud Platform

Источник изображения: Foundry Cloud Platform

Foundry предлагает ускорители NVIDIA H100, A100, A40 и A5000 с 3,2-Тбит/с InfiniBand-фабрикой, размещённые в ЦОД уровня Tier III/IV. Облако соответствует уровню защиты SOC2 Type II и предлагает HIPAA-совместимые опции. При этом пока не ясны объёмы кластеров, предлагаемых Foundry. Возможно, именно поэтому компания сейчас очень тщательно отбирает клиентов. Другими словами, стартапу ещё рано тягаться с CoreWeave или Lambda, даже при наличии передовых и нестандартных технических решений.

Преимуществом для таких «новых облаков» стала относительная простота получения необходимого финансирования для создания больших кластеров ИИ-ускорителей. Помимо привлечения средств в ходе традиционных раундов инвестирования, компании стали занимать новые средства под залог самих ускорителей. В своё время CoreWeave удалось таким способом получить $7,5 млрд.

Пока многие компании ещё не выяснили, как оценить финансовую отдачу от внедрения ИИ. Тем не менее, поставщики инфраструктуры этот вопрос, похоже, уже решили. Ранее портал The Next Platform подсчитал, что кластер из 16 тыс. H100 обойдётся примерно в $1,5 млрд и принесёт $5,27 млрд в течение четырёх лет, если ИИ-бум не пойдёт на спад.

Постоянный URL: http://servernews.ru/1109489
15.08.2024 [12:19], Руслан Авдеев

Исландский проект IceCloud представил частное облако под ключ с питанием от ГеоТЭС и ГЭС

Консорциум компаний запустил пилотный проект облачного сервиса IceCloud на базе исландского ЦОД с необычными возможностями. The Register сообщает, что дата-центр будет полностью снабжаться возобновляемой энергией для того, чтобы его клиенты смогли достичь своих экологических, социальных и управленческих обязательств (ESG).

Проект IceCloud Integrated Services представляет собой частное облако с широкими возможностями настройки для того, чтобы предложить клиентам экономичную масштабируемую платформу, в том числе для ИИ и прочих ресурсоёмких задачах. В консорциум на равных правах входят британский поставщик ЦОД-инфраструктур Vesper Technologies (Vespertec), разработчик облачного ПО Sardina Systems и оператор Borealis Datacenter из Исландии.

Vespertec занимается созданием кастомных серверов, хранилищ и сетевых решений, в том числе стандарта OCP. Sardina отвечает за облачную платформу Fish OS. Это дистрибутив OpenStack для частных облачных сервисов, интегрированный с Kubernetes и сервисом хранения данных Ceph. Предполагается, что облачная платформа не будет имитировать AWS и Azure. Решение ориентировано на корпоративных клиентов с задачами, требующими высокой производительности, малого времени отклика и высокого уровня доступности.

 Источник изображения: Robert Lukeman/unsplash.com

Источник изображения: Robert Lukeman/unsplash.com

Таких предложений на рынке уже немало, но IceCloud на базе ЦОД Borealis Datacenter позволит клиентам использовать исключительно возобновляемую энергию и экономить на охлаждении благодаря прохладному местному климату. Выполнение компаниями-клиентами ESG-обязательств, а также снижение на 50 % энергопотребления вне периодов часов пиковых нагрузок и снижение потребления на 38 % в целом ведёт к существенному снижению стоимости эксплуатации облака, говорят авторы проекта.

 Источник изображения: Vespertec

Источник изображения: Vespertec

До заключения контракта на обслуживание в облаке IceCloud с клиентом ведутся переговоры для выяснения его потребностей в программном и аппаратном обеспечении и пр. После этого клиенту делается индивидуальное пакетное предложение. Перед окончательным принятием решения клиент может протестировать сервис и, если его всё устраивает, он получит персонального менеджера.

Эксперты подтверждают, что размещение ЦОД на севере имеет три ключевых преимущества. Низкие температуры окружающей среды позволяют экономить на охлаждении, обеспечивая низкий индекс PUE. Сам регион богат возобновляемой энергией и, наконец, в Исландии не так тесно в сравнении с популярными европейскими локациями ЦОД во Франкфурте, Лондоне, Амстердаме, Париже и Дублине.

Постоянный URL: http://servernews.ru/1109491
15.08.2024 [09:36], Алексей Степин

256 × RISC-V: SiFive представила высокопроизводительные ядра P870-D для серверов и СХД

Открытая архитектура RISC-V, которая, как многие надеются, станет конкурентом Arm не только в компактных и экономичных устройствах, но и в серверных системах, продолжает развиваться. Один из ведущих разработчиков в этой сфере, компания SiFive, анонсировала новое ядро P870-D. Как следует из системы обозначений, принятой SiFive, это высокопроизводительное (Performance) ядро, а суффикс D означает Datacenter. Новинка предназначена для серверных процессоров с количеством ядер до 256.

Дизайн P870-D нельзя назвать полностью новым, поскольку он основан на ядре P870, анонсированном в конце 2023 года. Данное решение предназначалось для создания процессоров с числом ядер до 32 и включало в себя два 128-бит векторных блока, при этом каждые четыре ядра группировались в кластер, использовавший разделяемый кеш L2.

 Источник здесь и далее: SiFive

Источник здесь и далее: SiFive

P870-D сохранило черты предшественника. Это 64-бит ядро с поддержкой внеочередного исполнения инструкций и шириной декодера 6. В нём реализована поддержка набора инструкций RVA 23, Vector 1.0 и Vector Crypto. Появилась поддержка функций обеспечения повышенной надёжности RAS (Reliability, availability and serviceability). Контроль чётности присутствует уже на уровне регистровых файлов, а на всех уровнях подсистемы кешей имеется коррекция ошибок SECDED ECC.

Но это не всё, в P870D есть поддержка AMBA CHI (4 порта). Это нововведение позволило SiFive существенно улучшить масштабирование — P870-D может служить основой для процессоров с числом ядер до 256, включая гетерогенные, в том числе возможны многочиповые дизайны и варианты с поддержкой CXL. Сами ядра по-прежнему группируются в кластеры по четыре, а CHI-подключение может обеспечиваться как встроенным мостом, так и внешним чиплетом.

Также в состав P870-D входит распределённый масштабируемый блок IOMMU, платформа безопасности WorldGuard и uncore-агент, ответственный за питание, отладку, трассировку и т.д. Есть и контроллер прерываний Advanced Interrupt Architecture (AIA) с поддержкой Message Signal Interrupts (MSI) и виртуализации.

В настоящее время это самое мощное ядро в арсенале SiFive, основными его конкурентами названы Arm Cortex-X2 и AMD Zen 4c. Однако перекоса в сторону исключительно производительности у P870-D нет. Поскольку данный дизайн ориентирован на современные высокоплотные ЦОД и платформы периферийных вычислений, разработчики уделили серьёзное внимание вопросам энергопотребления и тепловыделения. Впрочем, точных данных по этим параметрам пока приведено не было.

Компания активно сотрудничает с партнерами по экосистеме RISC-V. Так, уже заключено соглашение с Arteris, которая выпустит референсные платформы валидации на базе P870-D и X280 с интегрированной поддержкой Arteris Network-on-Chip (NoC), что должно упростить дальнейшую разработку сложных гетерогенных чипов с функциями ИИ (за счёт блоков SiFive Intelligence) и ускорить вывод на рынок решений на базе таких чипов.

Образцы чипов на базе SiFive P870-D уже поставляются ведущим партнёрам компании, а начало массового производства намечено на конец текущего 2024 года. Зарубежные аналитики полагают, что за энергоэффективными платформами на базе открытых стандартов большое будущее. К 2030 году решения, подобные SiFive P870-D, как ожидается, займут более 40 % всего рынка серверных процессоров.

Постоянный URL: http://servernews.ru/1109474
15.08.2024 [01:10], Владимир Мироненко

900 серверов, 1,5 ПФлопс и 15 Пбайт: шесть суперкомпьютерных центров России объединились в научный HPC-консорциум

Шесть специализированных центров коллективного пользования (ЦКП) сформировали консорциум «Распределённая научная суперкомпьютерная инфраструктура», чтобы осуществлять координацию совместных действий по комплексному развитию и поддержке суперкомпьютерных центров и специализированных центров данных для решения актуальных научных, научно-технических и социально-экономических задач, сообщил Telegram-канал Министерства науки и высшего образования РФ.

В консорциум вошли ХФИЦ ДВО РАН (г. Хабаровск), Институт автоматики и процессов управления ДВО РАН (г. Владивосток), Институт динамики систем и теории управления им. В.М. Матросова СО РАН (г. Иркутск), Институт вычислительной математики и математической геофизики СО РАН (г. Новосибирск), Институт математики и механики им. Н.Н. Красовского УрО РАН (г. Екатеринбург) и Институт космических исследований РАН (г. Москва).

 Источник изображения: ЦКП «Центр данных ДВО РАН»

Источник изображения: ЦКП «Центр данных ДВО РАН»

Инфраструктура консорциума включает 900 серверов c суммарной пиковой производительностью 1,5 ПФлопс и системами хранения научных данных ёмкостью более 15 Пбайт. С её помощью можно обеспечивать работу распределённых специализированных информационных систем сбора, хранения и обработки научных данных, находящихся в различных регионах страны, говорится в сообщении. На данный момент участники консорциума предоставляют доступ к компьютерным ресурсам и оказывают квалифицированную поддержку для 240 организаций России.

Постоянный URL: http://servernews.ru/1109475
14.08.2024 [16:58], Руслан Авдеев

Nimbus Data превратила Tesla Cybertruck в мобильное All-Flash хранилище BatArray

Компания Nimbus Data создала мобильное хранилище BatArray, представляющее собой комбинацию All-Flash СХД FlashRack Turbo с электромобилем Tesla Cybertruck. По словам компании, BatArray позволит продемонстрировать энергоэффективность решений Nimbus Data и преимущества аккумуляторных технологий Tesla — это новый способ решать задачи по обработке или хранению данных в эпоху ИИ.

BatArray использует шесть 2U-систем FlashRack Turbo (глубина 21″), каждая из которых способна хранить 1,5 Пбайт, что суммарно даёт 9 Пбайт чистой ёмкости. Эффективная же ёмкость после компрессии и дедупликации может достигать 25 Пбайт. Кластер СХД запитан от розетки 240В/40А в кузове Cybertruck. Заряда таяговых АКБ хватит на 24 часа работы хранилища данных.

Патентованная архитектура Parallel Memory Architecture позволяет BatArray принимать данные со скоростью до 360 Гбайт/с. Это втрое быстрее, чем могли обеспечить фуры AWS Snowmobile. Все данные автоматически шифруются с использованием AES-256 с поддержкой KIMP. Скорость выгрузки данных и вовсе достигает 600 Гбайт/с. В наилучшем случае целиком заполнить BatArray можно за 7 часов, при этом оставшегося заряда АКБ хватит на проезд более 300 км без подзарядки. А используя 400G-трансиверы с FR4-волокном можно связать BatArray с нужным объектом на расстоянии до 2 км.

 Источник изображения: Nimbus Data

Источник изображения: Nimbus Data

Двухконтроллерная СХД FlashRack Turbo поддерживает установку 24 NVMe SSD (PCIe 4.0) ёмкостью до 64 Тбайт, а также 512-Тбайт SSP (Solid State Pack). Пиковая производительность составляет до 100 Гбайт/с (блоки 1 Мбайт) и 10 млн IOPS (4K-блоки). СХД поддерживает NVMe-oF (TCP/RoCE), iSCSI, iSER, FCP, SRP, NFS, SMB, AFP, S3, WebDAV, FTP. Для связи с миром доступны порты 10/25/50/100/200/400GbE, InfiniBand EDR/HDR/NDR и FC32/64. Энергопотребление не превышает 1100 Вт.

Постоянный URL: http://servernews.ru/1109447
Система Orphus