Netgate Discussion Forum
    • Categories
    • Recent
    • Tags
    • Popular
    • Users
    • Search
    • Register
    • Login

    Neuinstallation von 2.5.x als VM, welcher Hypervisor?

    Scheduled Pinned Locked Moved Deutsch
    22 Posts 7 Posters 2.0k Views
    Loading More Posts
    • Oldest to Newest
    • Newest to Oldest
    • Most Votes
    Reply
    • Reply as topic
    Log in to reply
    This topic has been deleted. Only users with topic management privileges can see it.
    • mike69M
      mike69 Rebel Alliance @m0nji
      last edited by

      @m0nji

      Backups auf dem Node, dann mit rsync, borg oder whatever wohin Du willst. Idealerweise auf deine Syno.

      DG FTTH 400/200
      Supermicro A2SDi-4C-HLN4F with pfSense 2.7.2

      1 Reply Last reply Reply Quote 0
      • JeGrJ
        JeGr LAYER 8 Moderator @m0nji
        last edited by

        @m0nji Bei VMware: Veeam checken. Ist eine der besten Lösungen.

        Ansonsten: Automatisierung! Das Gros meiner Proxmox Container sind Kisten, die man relativ einfach neu aufsetzen oder automatisieren kann. Bspw.: 2x PiHole. Die brauch ich nicht wirklich sichern, das Basis-Containerfile hat schon alles wichtige installiert, dann noch PiHole Installer automatisch ausführen lassen und mein Ansible Playbook für PiHole damit die ganzen Domains mit Forwardern woandershin eingetragen werden. Also nichts wirklich drauf was ich sichern müsste. Einfach neu aufsetzen und gut.

        Also: Erst Automatisierung, Konsolidierung und was dann über bleibt ggf. als Daten dann ab in ein Backup (extern via NAS oder rsync o.ä.) oder Backup/Snapshots vom ZFS des Proxmox auf den anderen Host des Clusters.

        Don't forget to upvote 👍 those who kindly offered their time and brainpower to help you!

        If you're interested, I'm available to discuss details of German-speaking paid support (for companies) if needed.

        1 Reply Last reply Reply Quote 0
        • First post
          Last post
        Copyright 2025 Rubicon Communications LLC (Netgate). All rights reserved.