Лента новостей
21.04.2025 [18:35], Руслан Авдеев
В 2024 году дата-центры Apple потребили 2,5 ТВт∙ч «зелёного» электричества, но есть нюансСогласно последнему докладу Apple Environmental Progress Report, на питание её дата-центров и колокейшн-объектов ушло 2,5 ТВт∙ч в 2024 году. Это больше, чем годом ранее — тогда речь шла о более 2,3 ТВт∙ч, сообщает Datacenter Dynamics. Рост энергопотребления связан со вводом в эксплуатацию ЦОД Waukee в Айове. Объект общей площадью 37 тыс. м 2 готовили ещё с 2017 года, но подключения к энергосети удалось добиться только в октябре прошлого. Всего у компании есть восемь собственных ЦОД в Северной Америке, Европе и Азии. По словам Apple, 100 % энергии для них поступило из возобновляемых источников — с солнечных, ветряных и гидроэлектростанций. В этом наборе доминирует солнечная энергия, на неё приходится 72 % действующих энергопроектов, поддерживаемых компанией. В 2024 году продолжилось строительство солнечных электростанций. Компания подписала соглашения о покупке энергии (PPA) с Ib Vogt — о получении 105 МВт от проекта Castaño Solar в Сеговия (Segovia) к северо-западу от Мадрида. ![]() Источник изображения: Grzegorz Walczak/unsplash.com В целом в своих ЦОД Apple использует самую разную возобновляемую энергию, но, как это обычно и бывает, в основном речь идёт не о прямом питании, а о PPA. В Аризоне компания потребила 530 ГВт∙ч. Это на 100 % солнечная энергия, причём 4,67 МВт отдают элементы, установленных на парковке дата-центра. В Неваде Apple использовала 454 ГВт∙ч, которые целиком были получены от солнца. В том числе от солнечной электростанции Fort Churchill Solar Array мощностью 20 МВт, которая использует зеркала для концентрации света на фотоэлектрических элементах. В Северной Каролине ЦОД потребил 466 ГВт∙ч солнечной и ветряной энергии, 68 % и 32 % соответственно. В Орегоне ЦОД потребил 255 ГВт∙ч — 56 % получено за счёт ветряной и 43 % за счёт солнечной энергии, а 1 % — за счёт микро-ГЭС. Apple отметила, что управляет в регионе одним подобным проектом, мощности построены вдоль ирригационного канала. ![]() Источник изображения: Apple В Дании ЦОД потребил 59 ГВт∙ч энергии, он тоже на 100 % обеспечен за счёт солнечного (42 МВт) и ветряного (17 МВт) проектов. На два ЦОД в Китае пришлось 214 ГВт∙ч, энергия поровну поступает от солнечных и ветряных электростанций. Детальных данных по ЦОД в Айове пока нет, но он в каком-то смысле заменил проданный ранее калифорнийский дата-центр Apple. Объёмы использования энергии колокейшн-мощностями не раскрывается. Компания отмечает, что использование полезных ископаемых для питания на колокейшн-объектах находится вне контроля Apple. Использование облачных мощностей также держится в секрете. Apple является давним клиентом Google Cloud, и предполагается, что она — крупнейший клиент платформы. ![]() Источник изображения: Apple Также в докладе указывается, что компания снизила общие выброс парниковых газов более чем на 60 % — это часть более обширной цели по достижении углеродной нейтральности по всем типам операций к 2030 году. В рамках этой цели планируется снизить выбросы на 75 % и компенсировать остальное с помощью соглашений об удалении углерода из атмосферы сторонними игроками. Цель — удалять по 1 млн т CO2 в год. Всего глобальная цепочка поставок компании получает 17,8 ГВт возобновляемой энергии. Это, как утверждают в Apple, снизило углеродный выброс на 41 млн тонн в 2024 году. Что касается попыток снизить водопотребление, Apple сообщила, что программа Supplier Clean Water Program позволила сохранить более 340,6 млн м3 с 2013 года. В 2024 году было «спасено» 53 млн м3, в среднем поставщики повторно используют 42 % воды. Впрочем, любая статистика — инструмент довольно гибкий. Например, несмотря на попытки Google добиться нулевых выбросов к 2030 году, по итогам 2023-го выбросы за пять лет взлетели на 48 %, во многом из-за ИИ. Apple, по-видимому, ожидает та же участь в связи с закупкой мощных ИИ-систем NVIDIA.
21.04.2025 [18:05], Сергей Карасёв
В Екатеринбурге прошло PG BootCamp Russia — четвёртое официальное мероприятие российского сообщества PostgreSQLНа конференции PG BootCamp Russia было представлено 16 докладов, охватывающих различные аспекты работы с PostgreSQL: оптимизацию запросов, репликацию, сжатие данных, восстановление информации, тестирование, а также обработку временных рядов и модификацию структур данных в реальном времени. Число участников превысило 1500, из которых 230 человек посетили мероприятие лично. Генеральным партнёром события выступила российская компания «Тантор Лабс», разработчик СУБД Tantor на основе PostgreSQL. В этом году 10 апреля Екатеринбург стал площадкой для проведения четвёртой конференции PG BootCamp Russia — официального комьюнити-мероприятия, посвящённого разработке и использованию СУБД PostgreSQL. Событие прошло при поддержке генерального партнёра — компании «Тантор Лабс», разработчика семейства СУБД Tantor Postgres. Традиционно в PG BootCamp принимают участие не только профессиональные разработчики и администраторы БД, но и аналитики, архитекторы, менеджеры и руководители, студенты и фрилансеры. Программа строится так, чтобы дать каждому возможность не только углубить знания о ядре и экосистеме PostgreSQL, но и приобрести практические навыки использования этой открытой СУБД. Предыдущие конференции проходили в 2023–2024 гг. в Москве, Минске и Казани, а самый первый PG BootCamp состоялся в 2023 г. в Тель-Авиве. Инициаторами создания площадки для практического обучения и взаимодействия разработчиков и пользователей стали член PostgreSQL Core Team и один из отцов-основателей PostgreSQL Брюс Момжан (Bruce Momjian), а также Михаил Гольдберг, на тот момент председатель комитета PostgreSQL Code of Conduct. Для участия в PG BootCamp Russia 2025 в Екатеринбурге зарегистрировались более 2800 человек, из них свыше трёхсот — для очного посещения, а остальные — для дистанционного просмотра. «PostgreSQL — это не просто система управления базами данных, а глобальное сообщество, где открытый код, качество и непрерывное развитие стали основой философии, благодаря которой Postgres стал одной из самых надежных и популярных СУБД в мире. Для нас как организаторов официального мероприятия сообщества важно, чтобы конференция была интересна всем, кто увлекается этой замечательной СУБД»,— отметил Вадим Яценко, генеральный директор компании «Тантор Лабс». Мероприятие в этот раз проходило в два трека: один был посвящён разработке и «внутренностям» PostgreSQL, другой — преимущественно вопросам эксплуатации. Максим Милютин и Сергей Соловьев («Тантор Лабс») провели глубокий технический разбор оптимизации запросов PostgreSQL в части препроцессинга исходного дерева запросов и раскрыли способы сделать запрос более производительным, а план запроса — более управляемым. Игорь Мельников из «Форсайт» раскрыл треки управления жизненным циклом информации (ILM). В первом докладе спикера рассматривалась автоматизация переноса данных между слоями различных хранилищ с акцентом на оптимизацию инфраструктурных затрат организаций, во втором продемонстрировано расширение dbms_redefinition для изменения структуры таблиц PostgreSQL «на лету». Александр Никитин (DBA.team) в двух выступлениях поделился практическими методами анализа и оптимизации SQL-запросов через призму задач администратора БД, рассмотрел логическую репликацию в PostgreSQL, методы разрешения коллизий и преобразование физических реплик в логические. Живой интерес участников вызвал доклад Михаила Торговкина (ЦРЦТ «Максимум») на тему «Археология данных в PostgreSQL», посвящённый критическому восстановлению утраченных данных из нечитаемых таблиц, включая ручной парсинг страниц и восстановление с использованием низкоуровневых утилит. Также слушатели с вниманием отнеслись к докладу Евгения Воропаева («Тантор Лабс») о разработке и отладке патча с 64-битным счетчиком транзакций PostgreSQL, востребованного в высоконагруженных проектах. Андрей Бородин и Кирилл Решке (Yandex.Cloud) в своих отдельных выступлениях раскрыли внутренние механизмы WAL-G для сокращения лага между Primary и Standby и влияние бинарной совместимости мажорных версий PostgreSQL и Greenplum на разработку. Лев Николаев («Тантор Лабс») представил утилиту pg_orchestrator для автоматизации сложных сценариев обновлений тестирования PostgreSQL через YAML-манифесты, а Артем Бугаенко из этой же компании рассказал, на каких факторов строится статистика PostgreSQL и чем подход Postgres отличается от подходов, реализованных в других СУБД. Павел Селезнев (Pangolin) описал подходы к сжатию данных в PostgreSQL, включая анализ алгоритмов и их влияние на производительность, а Максим Старков («Тантор Лабс») посвятил своё выступление особенностям определения селективности планировщиком запросов PostgreSQL. Живой отклик аудитории вызвал рассказ Вадима Яценко о модернизации «заброшенного» первоначальными разработчиками расширения PipelineDB, предназначенного для высокоскоростной агрегации временных рядов. Тема привлекла разработчиков, которые занимаются обработкой потоковых данных и оптимизацией legacy-решений. Как превратить PostgreSQL в функциональный RESTful API-сервер с эффективным межсистемным взаимодействием показал Константин Ващенков из «Хи-Квадрат». В завершение встречи Василий Никонов («Интеллектуальные Системы») рассказал о возможностях статического анализа для выявления и предотвращения скрытых ошибок в БД PostgreSQL и предложил действенные практики автоматизации поиска уязвимостей структуры данных. PG BootCamp Russia в Екатеринбурге ещё раз подтвердил большой интерес российских и зарубежных специалистов к актуальным вопросам развития и использования популярной СУБД. Конференция стала для всей отрасли знаковым событием, а для профессионалов — ценной возможностью обменяться опытом и результатами своей работы. Реклама | ООО «ТАНТОР ЛАБС» ИНН 9701183207 erid: F7NfYUJCUneRHyjxUVnm
21.04.2025 [17:05], Татьяна Золотова
Для российских исследователей будут созданы суперкомпьютерный центр и роботизированные лабораторииПрезидент России поручил рассмотреть вопрос о внедрении инновационных технологий в промышленности. Для этого необходимо создать национальный суперкомпьютерный центр, роботизированные лаборатории, активнее внедрять искусственный интеллект. Об этом говорится в «Перечне поручений по итогам пленарного заседания и посещения выставки Форума будущих технологий, встречи с учеными». Как указано в документе, до 1 июня 2025 года премьер-министр РФ Михаил Мишустин должен представить предложения о создании единой межотраслевой цифровой базы данных свойств высокотехнологичных материалов и их компонентов, разработанной совместно с «Российской академией наук» и «Росатомом». В срок до 15 июля 2025 года необходимо также представить предложения о создании роботизированных лабораторий для проведения научных исследований с применением технологий ИИ. Среди поручений к середине июля 2025 года также необходимо рассмотреть вопрос о создании национального суперкомпьютерного центра. При этом доступ к его вычислительным мощностям получат все российские исследователи. Кроме того, президент поручил до 1 августа 2025 года представить предложения о расширении применения технологий ИИ и компьютерного моделирования для сокращения сроков разработки и внедрения новых материалов в химической отрасли. Ожидается, что благодаря внедрению ИИ и компьютерного моделирования сроки разработки и внедрения новых материалов в России можно уменьшить до 5–10 лет, а со временем и до двух-трёх лет. К 1 сентября 2025 года Правительство РФ совместно с «Российской академией наук», «Росатомом» и «Курчатовским институтом» должно разработать предложения о создании межотраслевого центра аддитивных технологий или 3D-печати для ускорения внедрения промышленными предприятиями таких технологий.
21.04.2025 [16:45], Руслан Авдеев
Deloitte: АЭС смогут обеспечить 10 % будущего спроса ЦОД США на электроэнергию, но строить их придётся быстрееНовые мощности АЭС могли бы потенциально обеспечить около 10 % предполагаемого роста спроса на электричества для дата-центров в следующие десять лет. По данным экспертов Deloitte, спрос на электричество для ЦОД в США может вырасти с 33 ГВт в 2024 году до 176 ГВт в 2035 году, сообщает Datacenter Knowledge. Но чтобы успеть справиться с таким ростом, надо ускорить ввод в строй новых атомных мощностей. По мнению аналитиков консалтинговой компании, на фоне стремительного роста спроса именно атомная энергия способна стать потенциальным решением для обеспечения части мощностей ЦОД электричеством благодаря надёжности и относительной экобезопасности АЭС. В течение ближайшиъ десяти лет будет введены генерируюшие мощности на 35–62 ГВт, так что порядка 10 % требований будущих ЦОД она удовлетворит. А по многим параметрам, от высокой энергетической плотности до низких углеродных выбросов, атомная энергетика является самым предпочтительным решением для питания ЦОД. В числе недавних проектов — финансирование AWS малых модульных реакторов (SMR) в штате Вашингтон, соглашение Google с Kairos Power о строительстве SMR к 2030 году, а также соглашение о покупке энергии (PPA), заключённое между Microsoft и оператором АЭС Three Mile Island в Пенсильвании, закрытой в 2019 году (теперь её придётся вернуть в строй). Дополнительно известно, что Meta✴ запрашивала обеспечение до 4 ГВт атомных мощностей. Разработчик атомных решений Oklo намерена поставить 12 ГВт оператору ЦОД Switch. ![]() Источник изображения: Lukáš Lehotský/unsplash.com В минувшем марте коалиция крупнейших компаний, включая некоторых крупнейших операторов ЦОД, обеспечила кросс-секторные обязательства, подчёркивающие критическое значение АЭС в укреплении энергетической безопасности и надёжности. Группа, включающая Amazon, Meta✴ и Google, присоединилась к 14 финансовым институтам, 140 представителям атомной индустрии и руководству более 30 стран в поддержке инициативы World Nuclear Association по утроению атомных мощностей к 2050 году. Хотя Deloitte сделала акцент на многочисленных преимуществах атомной энергетики для решения проблем ЦОД, аналитики признают, что общественно мнение об АЭС «сложное и изменчивое». Эксперты рекомендуют причастным к атомным проектам организациям «упростить» свою деятельность для ускорения и повышения их эффективности, решения проблем со сроками строительства и перерасходом средств. В то же время необходимо заниматься инновациями для обеспечения безопасности и утилизации отходов. С учётом современных геополитических условий, Deloitte также выражает обеспокоенность эффективностью механизмов поставок обогащённого урана. США, крупнейший в мире рынок ЦОД, закупают его в основном у России и Китая, что якобы ставит под угрозу энергетическую безопасность страны и возможность строительства передовых реакторов. Помимо этого, проблемой являются и другие факторы — от сложной цепочки поставок комплектующих до трудностей производства крупных компонентов в США.
21.04.2025 [16:13], Руслан Авдеев
«Чудо-долина» для ИИ — в Канаде построят крупнейший в мире 7,5-ГВт ЦОД с питанием от природного газаИнвестор, бизнесмен и шоумен Кевин О’Лири (Kevin O’Leary) объявил о строительстве «крупнейшего в мире» ИИ ЦОД, сообщает Tech Republic. Проект Wonder Valley (букв. «Чудо-долина» или «Долина чудес») предусматривает строительство крупного ИИ ЦОД без подключения к магистральным энергосетям в муниципальном округе Гринвью (Greenview) провинции Альберта на западе Канады. Кампус займёт территорию более 2400 га, общая мощность составит беспрецедентные 7,5 ГВт. Первую фазу на 1,56 ГВт должны закончить в 2027–2028 гг., она обойдётся в $2 млрд. По словам О’Лири, дата-центры — своеобразная «золотая лихорадка» современности. Вместе с тем получение питания для ЦОД стало большой проблемой, поскольку на присоединение может уйти пять или более лет. Он привёл пример, когда оператор ЦОД запрашивает 250 МВт сразу и ещё 250 МВт в течение двух лет, а в ответ ему предлагают 25 МВт с задержкой на три года, тогда как сейчас нужны проекты, которые будут готовы к работе уже через 24 месяца. Поэтом для питания нового кампуса будет использоваться природный газ. Wonder Valley представляет собой не просто крупнейший в мире дата-центр, но и экоустойчивый кампус на лоне дикой природы. Он сможет работать без подключения к магистральным электросетям и, более того, владельцы намерены поставлять энергию местным жителям. В регионе достаточно земли, природного газа, ВОЛС, кадров, инфраструктуры и др. По словам О’Лири, ИИ ЦОД рентабельны при реализации крупных проектов, так что теперь бизнес ищет другие площадки с государственной поддержкой и дешёвой энергией как в Альберте. По мнению О’Лири, при строительстве ИИ ЦОД надо в целом менять подход и вместо того, чтобы забирать электроэнергию из уже загруженных сетей, повышая тем самым стоимость электричества для остальных, стоит самостоятельно генерировать энергию и передавать её часть местным жителям и бизнесу. Появление кампуса в Альберте даст не только дешёвое электричество для ИИ ЦОД, но создаст рабочие места для местных, сократит вредные выбросы (за счёт утилизации попутного газа и захвата углерода), а также пополнит бюджет за счёт налоговых поступлений. Хотя газовые проекты для дата-центров в Северной Америке в последнее время очень популярны, производители газовых турбин, едва справляющиеся с заказами для дата-центров, опасаются расширять производство. А крупнейшая в США энергокомпания NextEra Energy предупреждает, что полагаться в энергетике только на газ очень опрометчиво. Что касается «крупнейшего с мире ЦОД», совсем недавно на это звание претендовал проект индийской Reliance с мощностью 3 ГВт.
21.04.2025 [12:30], Сергей Карасёв
Fujitsu, Supermicro и Nidec сообща повысят энергоэффективность ИИ ЦОДFujitsu, Supermicro и Nidec объявили об объединении усилий с целью снижения энергопотребления ЦОД. Речь идёт о создании платформы, которая поможет операторам дата-центров повысить коэффициент эффективности использования энергии (PUE). Отмечается, что стремительное внедрение ИИ приводит к быстрому росту нагрузки на ЦОД. Это, в свою очередь, провоцирует увеличение энергопотребления, что объясняется установкой мощных серверов с ускорителями на базе GPU. Тем не менее, многие дата-центры продолжают использовать воздушное охлаждение. Хотя жидкостное охлаждение обеспечивает значительно более высокую эффективность, проектирование, строительство и эксплуатация таких систем требуют высокого уровня технических знаний и навыков. В рамках нового проекта партнёры объединят ПО для мониторинга и управления жидкостным охлаждением Fujitsu, высокопроизводительные GPU-серверы Supermicro и высокоэффективную систему жидкостного охлаждения Nidec. В частности, Fujitsu намерена использовать свой 40-летний опыт в области СЖО, которые применяются в суперкомпьютерах. Supermicro предоставит высокопроизводительные серверные комплексы высокой плотности, оптимизированные для жидкостного охлаждения: такие устройства позволят сократить энергопотребление и снизить уровень шума благодаря отсутствию вентиляторов. Nidec будет отвечать за поставки компонентов СЖО, включая блоки распределения охлаждающей жидкости (CDU), насосы и пр. Система охлаждения Nidec, как ожидается, улучшит управление температурой и снизит энергопотребление. В целом, как заявляют партнёры, новая инициатива поможет повысить общую энергоэффективность ЦОД до 40 % по сравнению с традиционными методами воздушного охлаждения. Fujitsu оценит преимущества решения в своем центре обработки данных Tatebayashi.
21.04.2025 [11:45], Сергей Карасёв
Atto представила сетевые адаптеры Celerity FC-644E с четырьмя портами FC64G и FastFrame N424 с четырьмя портами 25GbEКомпания Atto Technology анонсировала сетевые адаптеры Celerity FC-644E и FastFrame N424, рассчитанные на дата-центры. Изделия, выполненные в виде низкопрофильных карт расширения с интерфейсом PCIe 4.0 х16, ориентированы на поддержание ресурсоёмких нагрузок, таких как приложения ИИ и НРС. Celerity FC-644E относится к решениям Fibre Channel HBA седьмого поколения. Предусмотрены четыре порта 64Gb FC, что обеспечивает суммарную пропускную способность до 256 Гбит/с. Говорится о совместимости со спецификациями FC-PI-7, SFF-8431, PCI Express CEM Spec 3.0 и PCI Hot Plug spec 1.1. Изделие оборудовано системой пассивного охлаждения с радиатором. Диапазон рабочих температур — от 0 до +55 °C. Заявлена поддержка Windows, Windows Server, Linux, illumos, VMware, FreeBSD и macOS. В свою очередь, FastFrame N424 представляет собой карту SmartNIC четвёртого поколения. Она располагает четырьмя портами 25GbE SFP28. Реализована поддержка RoCE. Заявленная задержка находится на уровне 1 мкс. Фирменное программное обеспечение Atto 360 предоставляет инструменты для настройки, мониторинга и аналитики. Упомянута совместимость с Windows, Windows Server, macOS и Linux. Средства Atto Ethernet Suite для Windows и Linux упрощают установку. Сетевой адаптер может эксплуатироваться при температурах от 0 до +55 °C. На новинки предоставляется трёхлетняя гарантия. В комплект поставки входят монтажные планки стандартной и уменьшенной высоты.
21.04.2025 [11:36], Сергей Карасёв
CoolIT представила 2-МВт блок распределения охлаждающей жидкости CHx2000 для ИИ и HPC ЦОДКомпания CoolIT Systems анонсировала блок распределения охлаждающей жидкости (CDU) CHx2000 для дата-центров, ориентированных на задачи ИИ и НРС. Новинка обеспечивает отвод более 2 МВт тепла: это, как утверждается, на сегодняшний день самый высокий показатель для CDU данного класса. Устройство выполнено в виде шкафа с размерами основания 750 × 1200 мм. Заявленный расход жидкости составляет 1,2 л/мин. на кВт (LPM/kW): допускается охлаждение до двенадцати стоек NVIDIA GB200 NVL72 мощностью 120 кВт. По сравнению со своим предшественником (модель CHx1500) новинка обеспечивает повышение охлаждающей способности на 66 %. При создании CHx2000 компания CoolIT Systems сделала упор на долговечность, безотказную работу и простоту обслуживания. Применены два насоса с возможностью горячей замены (N+N), обеспечивающие производительность 1500 л/мин. Трубы изготовлены из нержавеющей стали. В конструкции используются 4″ муфты Victaulic. Благодаря резервированию критически важных компонентов доступность находится на уровне 99,9999 %. Предусмотрена интегрированная система управления и мониторинга (Redfish, SNMP, TCP/IP, Modbus, BACnet и др.). Причём допускается групповое управление одновременно до 20 экземпляров CDU. Во время обслуживания возможен доступ с лицевой и тыльной сторон с поддержкой горячей замены насосов, фильтров и датчиков. Заявленная потребляемая мощность составляет 12,24 кВт при работе одного насоса (1500 л/мин). Во фронтальной части корпуса располагается информационный дисплей. Блок CHx2000 уже доступен для заказа. CoolIT Systems предоставляет комплексную поддержку и услуги по проектированию, монтажу и обслуживанию в более чем 70 странах по всему миру.
21.04.2025 [09:13], Владимир Мироненко
«Киберпротект» представил новую версию системы резервного копирования Кибер Бэкап 17.3«Киберпротект», российский разработчик ПО для резервного копирования и восстановления данных, представил новую версию системы резервного копирования Кибер Бэкап 17.3. По словам компании, в данном релизе обеспечен рывок в производительности системы относительно максимального числа защищаемых источников данных, дальнейшего развития возможностей работы агентов в многопоточном и кластерном режимах, а также механизмов восстановления БД PostgreSQL. Также были улучшены работа с платформами виртуализации и контейнеризации, информирование и безопасность. Если предыдущая версия системы поддерживала работу с тысячами источников данных, то Кибер Бэкап 17.3 эффективно обеспечивает одновременное резервное копирование до 20 тыс. ящиков сервисов Почта VK WorkSpace и CommuniGate Pro. Как сообщает разработчик, до конца года этот показатель будет кратно увеличен. Также была добавлена возможность объединения агентов отечественных почтовых сервисов в кластер — логическую группу, выполняющую одно задание резервного копирования, автоматически балансируя нагрузку между агентами. ![]() Источник изображений: «Киберпротект» Росту производительности системы также способствовало расширение многозадачности агентов резервного копирования: теперь один агент способен параллельно обрабатывать разные задания резервного копирования, например, файловые и дисковые, разных экземпляров СУБД PostgreSQL и др. Таким образом, был сделан ещё один шаг в направлении развития многопоточности, обеспечивающий кратное увеличение скорости резервного копирования в ряде сценариев. Вместе с тем высокопроизводительной работе системы могут препятствовать ограничения источника данных. Например, одна из системных утилит СУБД PostgreSQL в сценариях гранулярного восстановления больших баз данных использует весь свободный объём оперативной памяти. В случае, если объём базы превышает его, возникают ошибки. Чтобы снять ограничения для PostgreSQL и отечественных СУБД на её основе при восстановлении, в Кибер Бэкап 17.3 используется собственный механизм гранулярного восстановления. ![]() Также Кибер Бэкап 17.3 получил улучшенную защиту виртуальных машин OpenStack, поддерживаемой решением в «безагентном» режиме. А агент уровня гипервизора для OpenStack получил поддержку регионов. Это позволит полноценно реализовать защиту сложных виртуальных инфраструктур на базе OpenStack. Для VMware и решений на базе oVirt в дополнение к резервному копированию и восстановлению тегов была реализована возможность работы с тегами (поиск и группировка ВМ, применение к ним заданий резервного копирования) в самой системе резервного копирования, что поможет существенно упростить конфигурирования заданий и исключить человеческие ошибки. Кроме того, для платформы oVirt и отечественных систем доступна поддержка режиме LAN-free, в котором агент уровня гипервизора выполняет резервное копирование напрямую из SAN в обход хоста виртуализации и локальной сети, что повышает скорость резервного копирования, снижает нагрузку на хост гипервизора и сеть. Высокая скорость работы оборудования в таком режиме обеспечивает уменьшение окна резервного копирования, а изоляция трафика снижает риск перехвата данных по сравнению с использованием общей сети. Дополнительно Кибер Бэкап 17.3 получил доработанный механизм резервного копирования и восстановления Kubernetes, позволяющий реализовать защиту постоянных томов Kubernetes собственными механизмами, обеспечивая хранение их данных во всех поддерживаемых системой резервного копирования хранилищах, дедупликацию резервных копий на уровне архива и их сжатие. Наконец, в Кибер Бэкапе 17.3 также был расширен список событий, отображаемых в Журнале аудита, представленном в Кибер Бэкап 17.2, и передаваемых в системы SIEM, за счёт десятков новых типов.
21.04.2025 [08:46], Сергей Карасёв
Представлен модуль Banana Pi BPI-CM6 — аналог Raspberry Pi CM4 на базе RISC-VВ ассортименте Banana Pi появился вычислительный модуль BPI-CM6 — это альтернатива Raspberry Pi CM4, выполненная на процессоре с открытой архитектурой RISC-V вместо Arm. Новинка подходит для создания систем промышленного контроля и автоматизации, NAS-устройств, робототехники, периферийных решений и пр. По форме, габаритам и расположению коннекторов новинка идентична Raspberry Pi CM4. Задействован чип SpacemiT K1, который объединяет восемь 64-битных ядер RISC-V, графический блок Imagination BXE-2-32 с поддержкой OpenCL 3.0, OpenGL ES3.2 и Vulkan 1.3, а также нейропроцессорный узел (NPU) с производительностью до 2 TOPS для ускорения ИИ-операций. ![]() Источник изображений: Banana Pi Модуль Banana Pi BPI-CM6 располагает 8 Гбайт оперативной памяти LPDDR4 (максимум 16 Гбайт) и чипом eMMC вместимостью 16 Гбайт (максимум 128 Гбайт). Реализована поддержка Bluetooth и Wi-Fi, PCIe 2.1 (5 линий), USB 3.0 и USB 2.0 (×2), HDMI 1.4, MIPI DSI и MIPI CSI (×3). Размеры составляют 40 × 55 мм. Диапазон рабочих температур простирается от -40 до +85 °C. Говорится о совместимости с Ubuntu Linux. ![]() Для новинки доступна сопутствующая интерфейсная плата, которая содержит по одному разъёму HDMI, USB 3.0 Type-A, USB 2.0 Type-A и USB Type-C OTG, два сетевых порта 1GbE RJ45 и слот для карты microSD. Кроме того, есть два коннектора M.2 M-Key (PCIe х2) для подключения SSD, 26-контактная колодка GPIO, два интерфейса MIPI CSI (4 линии) и один интерфейс MIPI DSI (4 линии). Питание (12 В) подаётся через DC-коннектор. Габариты — 56 × 85 мм. |
|