Hardware zur Virtualisierung von mehreren Instanzen: Allgemeine Fragen und Lösungen.


  • Rebel Alliance

    Hallo an Alle.

    Hier im Haus stehen mehrere Rechner mit verschiedensten Aufgaben rum. Ziel ist es, die Aufgaben auf ein Rechner mit einer schmalen Linux Distro zu zentrieren, indem aktuell 4 hosts virtuell mit z.B. Proxmox VE oder Qemu erstellt werden sollen. Das wären:
    -Unifi Controller im Management-Subnet,
    -Zabbix-Server, Log-Server und SMTP- Relay aktuell noch im MGMT-Subnet, weiss noch nicht, wohin damit :),
    -FTP- und Fileserver für die IP-Cams im Security-Subnet,
    -Home Automation, wie openHAB im IoT-Subnet,
    -Datengrab der Familie im LAN-Subnet

    Als Hardware ist vorhanden:
    Intel J4105 Celeron MB mit 8GB RAM,
    eine SSD für das BS, HDDs als Datengrab

    Die CPU ist nicht der Hirsch, dennoch langweilt es sich aktuell und unterstützt VT-x. Wie sieht es mit dem RAM aus, kann das eventuell eng werden? Weil, mehr kann das Board nicht. :(

    Was meint ihr? Sind der CPU und RAM ausreichend?



  • Die CPU ist nicht schlecht. 4 echte Cores, da ist kein Engpass, wenn eine VM wirklich mal die beiden zugewiesenen vCPUs beansprucht.

    Mit den 8 GB kannst du natürlich nicht einigen VMs großzügig RAM zuteilen, sollte aber reichen. Ggf. KSM aktivieren.
    Die beiden
    -FTP- und Fileserver für die IP-Cams im Security-Subnet,
    -Datengrab der Familie im LAN-Subnet
    betreibst du ja vermutlich auf einer VM. Der Unify Controller sollte nicht viel RAM benötigen, der Zabbix Server wird auch mit 2 GB das Auslangen finden. Von deiner Home Automation hab ich keine Ahnung.

    Noch RAM-sparender ginge es, wenn du einiges in Container packst.


  • Rebel Alliance

    @viragomann said in Hardware zur Virtualisierung von mehreren Instanzen.:

    Die beiden
    -FTP- und Fileserver für die IP-Cams im Security-Subnet,
    -Datengrab der Familie im LAN-Subnet
    betreibst du ja vermutlich auf einer VM

    VM ist noch absolutes Neuland, da ist einlesen angesagt.
    Der Family-Fileserver ist extra, die IP-Cams lagern ihre Bilderchen und Videos aktuell auf dem Host mit dem Unifi Controller ein. Da looft auch noch der Zappix Server und aktuell openHAB2 drauf.
    Vorher war openHAB auf einer RPI 3 installiert, das lief recht geschmeidig. Leider ist die RPI 3 gestorben, und eine RPI 2 ist damit überfordert. Würde somit einfach mal behaupten, eine openHAB Instanz würde mit 1 GB RAM laufen, so wie der Fileserver der IP-Cams auch.
    Der Familyserver beansprucht zur Zeit knapp 600MB RAM, kann eventuell mehr werden, wenn Daten durchs LAN geschoben werden, bin mir da so nicht sicher.

    Die Sache ist die, alle Devices schieben ihre Daten kreuz und quer durch die verschiedenen Subnetze, das ist irgendwie uncool und das möchte ich irgendwie vermeiden. Also Fileserver der IP-Cams bleibt im Security-Subnet, Unifi Controller bleibt für sich MGMT-Netz, Family Server im LAN, Home Automation im IoT, usw...

    Klar, es ist möglich alle Services auf ein Host zu klatschen und mit VLANs zu hantieren, weil für openHAB und Mediastreaming wird Multicast benötigt, auch irgendwie blöd.

    @viragomann said in Hardware zur Virtualisierung von mehreren Instanzen.:

    Noch RAM-sparender ginge es, wenn du einiges in Container packst.

    Meinst du sowas wie Docker?



  • @mike69 said in Hardware zur Virtualisierung von mehreren Instanzen.:

    Meinst du sowas wie Docker?

    Linux Container (LXC). Das kann auch Proxmox.
    Ist ähnlich wie Docker, eine Applikations-Isolierung. Es werden die Ressourcen des Hosts verwendet, nur das, was die Applikation verändern muss, wird für diese isoliert.
    Macht halt nur Sinn, wenn alles dieselbe Basis verwendet. Das spart RAM und Plattenplatz.
    Ich habe damit aber auch noch keine Erfahrung gesammelt.

    Wenn dieselbe Basis auf mehreren VMs verwendet wird (bspw. Linux Kernel) ist aber auch KSM ein wundersamer RAM-Verfielfacher, kostet aber etwas CPU-Leistung.


  • Rebel Alliance

    @viragomann said in Hardware zur Virtualisierung von mehreren Instanzen.:

    Wenn dieselbe Basis auf mehreren VMs verwendet wird

    Auf alle Fälle, wird eine aktuelle Debian Distro sein.

    @viragomann said in Hardware zur Virtualisierung von mehreren Instanzen.:

    Linux Container (LXC). Das kann auch Proxmox.

    Schau mir das mal an.

    Danke erstmal.


  • LAYER 8 Moderator

    Würde auch Proxmox VE mit Containern machen. Rockt für zu Hause.
    Hab mir dad gerade mit 2 Nodes auf 2 NUCs gebaut mit 256er SSDs und jeder 8GB RAM. Reicht mir Container völlig, gerade Sachen wie FTP o.a. brauchen ja keinen Container mit viel Storage. Und mit ZFS installiert gehen auch platzsparende Snapshots und Co

    Edit: ah die NUCs sind auch nur Celerons aber hey im Ernst bis auf den Zabbix les ich nichts was hart CPU lastig ist. Die sind trotzdem schneller als nen Raspi 2, 3 o.ä. und nen Pi4 braucht mitunter auch Strom wie nen NUC oder kleiner Celeron.

    Aber deshalb werde ich baldmöglichst mit der neuen Hardware nen Stream oder Meeting machen weil ich da auch überlege, Proxmox raufzuhauen um mehrere Sachen zu machen.



  • Proxmox hat KSM standardmäßig aktiviert, habe ich gerade gesehen.
    Na dann sollte der RAM nicht zu eng werden.



  • Die CPU wird mehr können viel mehr.
    Ist ja ein Skylake Unterbau oder neuer wenn ich nicht irre.
    Mein NAS soll auch nur 8GB können (J3455) rennt seit fast 2 Jahren mit 16 rum.

    VLANs und Multicast wo ist das Problem? Habe ich hier in allen aktiv aber nur in 2 ist ein Switch als Querier aktiv und das funktioniert einfach perfekt.
    Ist der Switch nicht da brauche ich auch kein MC.



  • @NOCling said in Hardware zur Virtualisierung von mehreren Instanzen.:

    Mein NAS soll auch nur 8GB können (J3455) rennt seit fast 2 Jahren mit 16 rum.

    Wie?
    16 GB RAM in den einzigen vorhandenen Slot reingesteckt?

    Intel gibt doch selbst für diese CPU an, nur 8 zu unterstützen.


  • Rebel Alliance

    Moinsen.

    Erstmal danke fürs Feedback.

    Habe in den letzten 2 Tagen am Proxmox Server geschraubt, Thinkpads Ultrabay sei Dank. :)
    Zweite HDD rein, Proxmox VE installiert, gestartet und 5 LXC mit Debian Buster erzeugt. So kann ich alles vorkonfigurieren, brauche dann nur die HDD tauschen, so der Plan.

    @NOCling said in Hardware zur Virtualisierung von mehreren Instanzen.:

    VLANs und Multicast wo ist das Problem?

    3 Instanzen laufen in versch. Netzwerken. Gibt es da ein HowTo dazu? Weiss noch nicht richtig, wie es unter Proxmox konfiguriert wird.

    @NOCling said in Hardware zur Virtualisierung von mehreren Instanzen.:

    Mein NAS soll auch nur 8GB können (J3455) rennt seit fast 2 Jahren mit 16 rum.

    Wird auch bei Alternate und Amazon so angegeben. Intel schreibt was anderes, traut seiner Hardware nicht viel zu. :)



  • Du sollst dann bei Intel halt einen i3, i5, i7 oder schlimmer kaufen und keinen Celeron.
    Mein NAS hat 2 Plätze und in jedem steckt ein 8GB Riegel. Es hat aber auch schon einer zwei 16er rein gesteckt und seine Kiste läuft auch damit stabil.

    Was die VM Umgebung angeht, du legst wie auf dem Switch halt die VLANs an, packst die tagged auf die ESXi Uplinks drauf und kannst die VMs dann an diese Virtuellen Adapter inkl. VLAN ID anbinden.

    Multicast braucht halt einen Querier, hängt vom Switch ab wie man das lösen kann.
    Ein VLAN Interface mit einer IP geht immer, bei anderen kann man das mit einer Loopback IP lösen die als Querier läuft und bei anderen muss man für das Interface noch die L3 Funktion abschalten.

    Ist halt immer Modell/Herstellerabhängig.

    Damit es richtig gut läuft querier interval time auf 60 Sekunden und dann hast nie wieder MC Probleme wenn nicht ein Problem mit der Multicastimplementierung beim Modell/Firmware selber vorliegt.

    VLAN ID : 13
    VLAN Name : xx
    IGMP version : 2
    Querier Address [this switch] : 192.168.13.6
    Querier Port :
    Querier UpTime : 74d 22h 43m 43s
    Querier Expiration Time : 0h 0m 4s

    Active Group Addresses Type Expires Ports Reports Queries


    239.12.0.78 Filter 0h 1m 17s 22 3211 0
    239.12.0.231 Filter 0h 1m 19s 20 400 0
    239.12.1.114 Filter 0h 1m 21s 21 115306 0
    239.12.1.116 Filter 0h 1m 22s 20 400 0
    239.12.1.122 Filter 0h 1m 19s 22 3211 0
    239.12.255.253 Filter 0h 1m 21s 20-22 346405 16
    239.12.255.254 Filter 0h 1m 21s 20-22 346398 16
    239.12.255.255 Filter 0h 1m 21s 21-22 230612 1
    239.170.0.1 Filter 0h 1m 18s 20 7481 0
    239.255.255.250 Filter 0h 1m 20s 20 7481 0


  • Rebel Alliance

    Moin.

    Sorry, Hardware hat den Geist aufgegeben, es konnte gestern erst weitergehen.

    @NOCling
    Das VLAN Konfiguration war nicht wirklich das Problem, es lag an den Rules der pfSense. 😊 Zu viele Stunden vor dem Monitor gesessen und das einfachste übersehen.

    Habe jetzt noch Sachen zum Thema PVE:

    Werde alle 5 Min aus der WebGUI gekickt und kann mich neu anmelden, inkl. der Meldung des nicht vorhandenen Subscription Key. Das nervt irgendwie, kann es auch an den gleichzeitigen Zugriff per CLI und der WebGUI liegen?

    Zum zweiten, wie werden andere Laufwerke den VMs soweit zugänglich gemacht, dass sie darauf kompletten Zugang haben und z.B. lesen und schreiben können? Die gemounteten LW lassen sich als Directory in pve einbinden, leider nur für Disk Images, VM Images, Snapshots usw..., nicht als "normale" LW bzw Ordner für die VMs. Zumindest habe ich es noch nicht gefunden.

    Eine mit QEMU erstellten VM können zumindest paar Shared Folder erzeugen werden, sollte für pve auch möglich sein, oder?

    Falls das kicken aus der WebGUI politischer Natur ist, wird unsere Freundschaft eh bald ein Ende haben.

    Gruß, Mike



  • @mike69
    Mit PVE muss man erst zusammenfinden. Hat bei mir auch Monate gedauert, in denen ich bereut hatte, nicht einfach VMM +SSH (für die Remote-Wartund) installiert zu haben, der mir bereits vertraut war.
    Jetzt denke ich gar über ein Upgrade auf Version 6 nach. 😀

    @mike69 said in Hardware zur Virtualisierung von mehreren Instanzen.:

    Werde alle 5 Min aus der WebGUI gekickt und kann mich neu anmelden

    Das Problem kenne ich nicht. Das kann bei der 6er Version auch nicht normal sein.

    @mike69 said in Hardware zur Virtualisierung von mehreren Instanzen.:

    Zum zweiten, wie werden andere Laufwerke den VMs soweit zugänglich gemacht, dass sie darauf kompletten Zugang haben und z.B. lesen und schreiben können?

    Was meinst du damit?
    Den VMs Laufwerke hinzufügen? Das ist ja bei KVM auch so. Oder meinst du Zugriff auf Netzlaufwerke?


  • Rebel Alliance

    Na Du machst einem Mut.😁

    @viragomann said in Hardware zur Virtualisierung von mehreren Instanzen.:

    Das Problem kenne ich nicht. Das kann bei der 6er Version auch nicht normal sein.

    Ja, kam erst paar Tage später, so am 3ten Tag. War auch gleichzeitig per CLI im Gange, eventuell mag pve so was nicht.

    @viragomann said in Hardware zur Virtualisierung von mehreren Instanzen.:

    Den VMs Laufwerke hinzufügen? Das ist ja bei KVM auch so. Oder meinst du Zugriff auf Netzlaufwerke?

    Keine Laufwerke, sondern gemeinsame freigegebene Ordner auf dem Host. Möchte einer VM die Möglichkeit geben, in einem Ordner auf dem Host zu schreiben. Wird unter aqemu als "shared folder" bezeichnet.

    Habe paar Lösungsansätze gefunden, musst per CLI die richtige vm.conf editieren.



  • @mike69 said in Hardware zur Virtualisierung von mehreren Instanzen.:

    Möchte einer VM die Möglichkeit geben, in einem Ordner auf dem Host zu schreiben. Wird unter aqemu als "shared folder" bezeichnet.

    Nun hab ich was dazugelernt.
    Seit fast 10 Jahren beschäftige ich mich mit Qemu + KVM, aber das hatte ich noch nicht verwendet.

    Nein, ich denke nicht, dass pve das bietet, nicht in der GUI.


  • Rebel Alliance

    @viragomann said in Hardware zur Virtualisierung von mehreren Instanzen.:

    Nein, ich denke nicht, dass pve das bietet, nicht in der GUI

    Stimmt, per CLI
    Oder etwas älter hier

    Werde beizeiten mal testen. Oder switche komplett auf qemu und ssh um, mal sehen. Bin noch für alles offen :)


  • Rebel Alliance

    So, es geht langsam weiter hier.

    Die Überschrift ist angepasst, es geht ja aktuell nicht nur um die Hardware. :)

    Habe jetzt die DVB-S2 PCIe Satkarte zum Clienten durchgeschleift, siehe hier als Beispiel oder hier. TVHeadend erkennt die Tuner, alles tutti.

    Als nächstes wird die Aktion mit den freigegebenen Ordnern auf dem Host in Angriff genommen.

    @viragomann

    Hier noch paar Infos zu dem Thema "folder sharing", nutze selber AQEMU als GUI auf dem Notebook und es wird Dir sogar der Mountbefehl angezeigt. :)

    aqemu1.png



  • @mike69
    Danke.

    9P Filesystem? Auch noch nie gehört.

    @mike69 said in Hardware zur Virtualisierung von mehreren Instanzen: Allgemeine Fragen und Lösungen.:

    nutze selber AQEMU als GUI auf dem Notebook und es wird Dir sogar der Mountbefehl angezeigt. :)

    Wie gesagt, ich verwende seit jeher VMM, dieser bietet das auch als "Filesystem Passthrough", vielleicht mit einigen Optionen mehr, aber beim mounten lässt der einen im Regen stehen. Dafür darf man dann seine Suchmaschine anwerfen.

    Aktuell habe ich aber für das keine Verwendung, abgesehen von einer Windows VM, aber da lässt sich das FS vermutlich gar nicht mounten, also verwende ich Samba für die paar Dateiübertragungen.


  • LAYER 8 Moderator

    @mike69 said in Hardware zur Virtualisierung von mehreren Instanzen: Allgemeine Fragen und Lösungen.:

    Werde alle 5 Min aus der WebGUI gekickt und kann mich neu anmelden, inkl. der Meldung des nicht vorhandenen Subscription Key. Das nervt irgendwie, kann es auch an den gleichzeitigen Zugriff per CLI und der WebGUI liegen?

    Der Kick aus der WebGUI kann sein, dass die Uhr des Proxmox nicht korrekt läuft. Hatte ich anfangs auch, nach 1-2 Tagen und aktivem NTP hat sich das erledigt gehabt. Weiß aber nicht obs wirklich daran lag.

    inkl. der Meldung des nicht vorhandenen Subscription Key

    PVE auf Community Quellen umgestellt? Dann kannste die Meldung mit ein zwei Zeilen Code problemlos ausknipsen. Ging mir bei meinem Testcluster aus 2 NUCs auch auf die Nerven. Jetzt ist Ruhe. :)


  • Rebel Alliance

    @JeGr said in Hardware zur Virtualisierung von mehreren Instanzen: Allgemeine Fragen und Lösungen.:

    Der Kick aus der WebGUI kann sein, dass die Uhr des Proxmox nicht korrekt läuft. Hatte ich anfangs auch, nach 1-2 Tagen und aktivem NTP hat sich das erledigt gehabt. Weiß aber nicht obs wirklich daran lag.

    Also gestern war Ruhe, kein Kick. Komm jetzt langsam weiter mit dem freigeben der Ordner.

    Eintrag in die 1xx.conf:

    args: -fsdev local,security_model=passthrough,id=fsdev0,path=/pve/own/folder/ -device virtio-9p-pci,id=fs0,fsdev=fsdev0,mount_tag=9p_data,bus=pci.0,addr=0x4 
    

    Und auf der VM in /etc/fstab:

    9p_data    /vm/own/folder 9p trans=virtio,version=9p2000.L,rw,_netdev 0 0
    

    So ist ein geteilter Ordner freigegeben. Brauche aber 3 Ordner, da scheitert es an der Syntax irgendwie. Oder verlinke alle benötigten Ordner zu einem zentralen Ordner auf dem Host, brauche dann nur eine Freigabe. :)

    @JeGr said in Hardware zur Virtualisierung von mehreren Instanzen: Allgemeine Fragen und Lösungen.:

    PVE auf Community Quellen umgestellt? Dann kannste die Meldung mit ein zwei Zeilen Code problemlos ausknipsen. Ging mir bei meinem Testcluster aus 2 NUCs auch auf die Nerven. Jetzt ist Ruhe. :)

    Ist auf Community geswitched

    Los, make my Day. 😘
    Wo sitzt die verdammte .js Datei? Gib mir ein Link. 😁


  • LAYER 8 Moderator

    @mike69 said in Hardware zur Virtualisierung von mehreren Instanzen: Allgemeine Fragen und Lösungen.:

    Also gestern war Ruhe, kein Kick. Komm jetzt langsam weiter mit dem freigeben der Ordner.

    Was ist da genau der Sinn und wo liegt der Ordner der freigegeben ist? Warum nicht einfach als bspw. NFS shared folder einbinden?

    Los, make my Day. 😘

    Moment, muss das andere Laptop anwerfen.


  • LAYER 8 Moderator

    So das hat bei mir aktuell super funktioniert:

    Credits: Das war aus einem Github GIST - ich denke dem hier:
    https://gist.github.com/whiskerz007/53c6aa5d624154bacbbc54880e1e3b2a

    ## Proxmox VE Community installieren
    
    # Disable Commercial Repo
    sed -i "s/^deb/\#deb/" /etc/apt/sources.list.d/pve-enterprise.list
    apt update
    
    # Add PVE Community Repo
    echo "deb http://download.proxmox.com/debian/pve $(grep "VERSION=" /etc/os-release | sed -n 's/.*(\(.*\)).*/\1/p') pve-no-subscription" > /etc/apt/sources.list.d/pve-no-enterprise.list
    apt update
    
    # Remove nag screen for homelab use
    echo "DPkg::Post-Invoke { \"dpkg -V proxmox-widget-toolkit | grep -q '/proxmoxlib\.js$'; if [ \$? -eq 1 ]; then { echo 'Removing subscription nag from UI...'; sed -i '/data.status/{s/\!//;s/Active/NoMoreNagging/}' /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js; }; fi\"; };" > /etc/apt/apt.conf.d/no-nag-script
    apt --reinstall install proxmox-widget-toolkit
    
    

    Der letzte Punkt ist der Knackpunkt. Also die beiden Zeilen. Die eine richtet ein Post-Invoke ein, der theoretisch jedes Mal nach einem package Update vom Widget Toolkit ausgeführt wird. Also nach Installation/Update sollte der dann getriggert werden. Bei einer aktuellen Version dann einfach nochmal den APT mit --reinstall der zweiten Zeile ausführen, dadurch wird das Paket nochmals drüberinstalliert und der Trigger ausgelöst und der JS Nagscreen entfernt.

    Prinzipiell bin ich nicht gegen sowas, die wollen ja mit dem Support auch was Sinnvolles anfangen, aber für ein Homelab, wo ich definitiv nur rumspiele und teste, macht es eher wenig Sinn, dass ich da eine Subscription kaufen werden (wir haben ja eine auf Arbeit) zumal ich da gerade ja Bleeding Edge Pakete testen will ;)


  • Rebel Alliance

    @JeGr said in Hardware zur Virtualisierung von mehreren Instanzen: Allgemeine Fragen und Lösungen.:

    Was ist da genau der Sinn und wo liegt der Ordner der freigegeben ist? Warum nicht einfach als bspw. NFS shared folder einbinden?

    Habe paar HDDs im Gehäuse und einige LW gemounted für versch. Scenarien, Backup, Datengrab für Family, kleines RAID für Mediafiles, usw..., alles auf dem Host. Bevor ich mich komplett auf KVM oder VMs whatever einschiesse, und alles in Container verschwinden lasse, soll der Zugriff auf die Shares vorhanden sein. Ist ja auch nur die Mediaserver-VM, die das braucht, und die Backupserver-VM die benötigt ein Share und das funzt schon.

    Zu NFS, eigendlich egal, welches Protokoll genutzt wird. Ein NFS-Server ist eh vorhanden, wollte es nur anders hin bekommen, NFS oder SMB wäre Plan B und C.

    Danke für den Link, @JeGr , muss gleich ackern, schaue heute Abend mal rein.

    PS:
    Die VMs mucken gelegendlich, wenn sie über die GUI gestoppt oder rebootet werden, liegt an der .lock Datei. Nervt ein bisschen. Bei Dir auch?

    So, erstmal wech...


  • LAYER 8 Moderator

    @mike69 said in Hardware zur Virtualisierung von mehreren Instanzen: Allgemeine Fragen und Lösungen.:

    Zu NFS, eigendlich egal, welches Protokoll genutzt wird. Ein NFS-Server ist eh vorhanden, wollte es nur anders hin bekommen, NFS oder SMB wäre Plan B und C.

    Ahso na dann :)

    @mike69 said in Hardware zur Virtualisierung von mehreren Instanzen: Allgemeine Fragen und Lösungen.:

    Die VMs mucken gelegendlich, wenn sie über die GUI gestoppt oder rebootet werden, liegt an der .lock Datei. Nervt ein bisschen. Bei Dir auch?

    Bislang nicht
    Bin aber auch noch nicht zu viel gekommen. Und neustarts oder reboots mache ich eigentlich wann immer es geht in der VM/Container selbst. Schon allein damit die Prozesse alles ordentlich mitbekommen. Oldschool halt ;)



  • @mike69 said in Hardware zur Virtualisierung von mehreren Instanzen: Allgemeine Fragen und Lösungen.:

    Die VMs mucken gelegendlich, wenn sie über die GUI gestoppt oder rebootet werden, liegt an der .lock Datei.

    Den Guest Channel hast du hinzugefügt und den Agent in der VM installiert?
    Ansosnten wird das über ACPI gemacht, was nicht immer zum Erfolg führt.


  • Rebel Alliance

    @JeGr said in Hardware zur Virtualisierung von mehreren Instanzen: Allgemeine Fragen und Lösungen.:

    So das hat bei mir aktuell super funktioniert:

    Credits: Das war aus einem Github GIST - ich denke dem hier:
    https://gist.github.com/whiskerz007/53c6aa5d624154bacbbc54880e1e3b2a

    Jau, hat funktioniert, danke. :)

    Zum Thema NFS Freigaben:
    Ja, kannst du mounten im Datacenter, aber nur als Plattform für die Images, Clones, usw, nicht als richtige Freigabe von Ordnern. Oder übersehe was, k. A..

    @viragomann said in Hardware zur Virtualisierung von mehreren Instanzen: Allgemeine Fragen und Lösungen.:

    Den Guest Channel hast du hinzugefügt und den Agent in der VM installiert?

    Bei der VM nicht, danke. :)
    Beim Rest war es installiert, da klappte es auch. 😀

    So, der Mediaserver funzt, jetzt kann der/die? :) Node weiter laufen. Den Rest hole ich nach und nach auf den Host, das hat keine Eile.

    Hier ein Pic von 5 laufenen VMs:
    Screenshot_2020-10-19 pve - Proxmox Virtual Environment.png

    Edit:

    Moinsen.
    Looft doch nicht wie es soll, nfs verträgt sich nicht mit dem 9p. Sind erst die Ordner vom host in dem Guest System gemountet, startet der NFS Server unter Guest nicht. Erst NFS Server starten und dann die händisch Hostordner mounten, das klappt. :(

    Das ist doch wieder alles mit der heissen Nadel gestrickt hier.


  • LAYER 8 Moderator

    Ich komm da jetzt eher zu arg aus der Virtualisierungs-Ecke mit VMware, Xen und Co. von früher, aber:

    warum nicht hergehen, eine VM oder Container erstellen mit einer kleinen Hauptplatte und dann einer zusätzlichen "Platte" die dann freigegeben wird per NFS? Da kann man IMHO sicherlich nen ext4 o.ä. Image einbinden, was die VM dann einhängen und per NFS den anderen Containern freigeben kann. Und wenn die NFS VM/Container aus ist, kann mans notfalls auch auf dem Host selbst mounten weils ein einfaches ext4 image ist. Ich hab das noch irgendwie im Hinterkopf dass das gehen müsste. Ich bin da nämlich nicht so der Fan, dass VMs oder Container "ausbrechen" dürfen und direkt an den Host ran dürfen. Am Ende bekommen sie da irgendwie ne Shell und können ausbüchsen - nene ;) So würde ichs versuchen zu lösen aber ob/wie das jetzt auf die schnelle mit Proxmox geht müsste ich auch nachsuchen. Leider momentan zu wenig Zeit mit Nacharbeit durch Krankheit und Co.


  • Rebel Alliance

    @JeGr said in Hardware zur Virtualisierung von mehreren Instanzen: Allgemeine Fragen und Lösungen.:

    Ich komm da jetzt eher zu arg aus der Virtualisierungs-Ecke mit VMware, Xen und Co. von früher, aber:
    warum nicht hergehen, eine VM oder Container erstellen mit einer kleinen Hauptplatte und dann einer zusätzlichen "Platte" die dann freigegeben wird per NFS? Da kann man IMHO sicherlich nen ext4 o.ä. Image einbinden, was die VM dann einhängen und per NFS den anderen Containern freigeben kann.

    Die Container oder VMs brauchen nicht miteinander quatschen, bis auf den Mediaserver braucht keiner Zugriff auf den Host. Eventuell noch der Backupserver, dem kann man virtuell was zuweisen, das ist nicht das Problem.

    Proxmox und ich sind noch nicht so dicke, als dass alles komplett auf Virtual umgeswitched wird. Das Backup und Restore wird Tage dauern, nur um Proxmox zu testen viiiiel Aufwand. :)
    Ziehst ja nach dem ersten zwei Dates auch nicht gleich bei der Braut ein. 😂 😂

    Fange ja bei Null an, bin jetzt soweit, dass ein Container den Mediaserver und NAS übernimmt. Da sind 3 Shares gemountet und damit können die Kodiboxen befeuert werden. Mit einer VM klappte nur ein Share zu mounten. Mehr geht hier aktuell nicht, wer was dazu sagen kann, wie mehrere gemountet werden kann, bitte.
    Aktuell über smb, da nfs keine virtuellen Shares verteilen kann, nur physikalische Devices wie HDDs oder optische LWe etc. Mit Samba geht es, warum, keine Ahnung.

    Leider bin Ich nicht in der Lage, im Container die PCIe Satkarte anzusprechen, Sehe unter dmesg was, sieht aber aus wie die Einträge vom Host. Bleibt nur eine VM mit durchgereichter PCIe Karte. Ob das funzt, keine Ahnung.

    Soweit die Lage, Jens. Und, wie war deine Woche so? 😁


Log in to reply