Proxmox weiter verwenden oder nicht?

polyphase

Commander
Registriert
Dez. 2010
Beiträge
2.713
Ich hab ein ganz blödes Thema hier, falls das nicht in dieses Forum passt könnt ihr das auch gerne verschieben.

Und zwar, hatte ich vor einem halben Jahr, die ggf. dumme Idee, alles soweit möglich per Proxmox zu virtualisieren, was vorher auf eigener Harware lief.

Situation vor der Umstellung:
  • Firewall auf eigener HW
  • piHole auf eigenem Raspberry Pi
  • ioBroker + NodeRed auf eigenem Raspberry Pi
  • Unifi Controller auf eigenem Raspberry Pi

Situation nach der Umstellung:
  • Firewall (mit eigener PCIe Netzerkkarte), piHole und Unifi Controller per VM auf Proxmox
  • ioBroker + NodeRed auf eigenem Raspberry Pi (sollte auch in eine VM umziehen)

Aktuell läuft das alles noch auf Proxmox 6.4 was ich natürlich auf 7.0 updaten muss,
oder doch besser eine Neuinstallation?

Jetzt stellt sich mir die Frage ob ich das noch mache, oder wieder zur Ausgangsituation zurückkehre,
da der administartive Aufwang gefühlt höher ist, als bei der alten Variante.

Hier brauche ich jetzt euren Rat, da ich nicht weiß was ich jetzt eigentlich machen soll.
 
Was erwartest Du bitte von uns?! Es werden sicherlich vermutlich genau so viele FÜR die bestehende virtualisierung stimmen als auch dagegen. ICH persönlich bevorzuge VMs da man nur ein Gerät laufen hat... Vorteile wie Snapshots der VMs mal außer acht gelassen... Was für Dich am angenehmsten ist kannst nur Du allein entscheiden.
 
  • Gefällt mir
Reaktionen: -Pascal-, M-X, NJay und 2 andere
Mein tipp: erstelle dir backups/snapshots update auf 7.0 und gut ist. Falls iwas falsch laeuft kannst du immernoch zurücksetzen und auf hw umstellen, ohne zu lange auf dem trockenen zu sitzen.
 
  • Gefällt mir
Reaktionen: Poulton, polyphase, H3llF15H und eine weitere Person
genau, wenn du 5 Leute fragst, wirst du 10 verschiedene Antworten hören und keine passt zu deinen Problemen...

wenn du MICH fragst, dann ist einer der größten Vorteile allgemein von Virtualisierungen, dass sie flexibel und skalierbar sind bis hin zu HA Konfigurationen.
wenn man häufig mal was ausprobieren und oder ändern möchte oder man eine Absicherung durch Redundanz/Cluster haben möchte, dann ist die Sache doch recht einfach.

ist das ganze aber "absolut statisch", dann verpufft viel der Vorteile und der Mehraufwand fängt an sich in den Vordergrund zu schieben.

ich komme aus einer Firmenkultur, bei der die "Basis IT" (NIS, DNS, DHCP usw.) immer auf einem 3er Cluster läuft. Dazu nimmt man NetApps mit redundanten Heads und für die eigentliche Arbeit steckt man so viele Bleche in den Ofen (Blades in die Enclosures, bzw. Enclosures in die Racks) wie man halt braucht, fertig. Auf der Ebene wird nix virtualisiert, selbst 1% Performance Verlust wäre da viel zu viel.

hier privat "zum Spielen" habe ich zwei alte Maschinen mit ProxMox laufen und gerade auf 7.01(?) umgestellt. Das hat ohne weitere Probleme funktioniert. Allerdings habe ich kein Cephs laufen, da ist nur ein olles NAS mit NFS Freigabe "dazwischen". Und auch das Netzwerk ist "einfach gestrickt".
 
  • Gefällt mir
Reaktionen: madmax2010 und polyphase
Dann werde ich das Update einfach versuchen. Wenn es schief geht, wird wieder alles Baremetall.

Danke für die Ermutigung
 
  • Gefällt mir
Reaktionen: TorenAltair
https://pve.proxmox.com/wiki/Upgrade_from_6.x_to_7.0 beachten. ich frage mich allerdings, wo die annahme herkommt, dass mit proxmox der administrative aufwand höher ist? einmal eingerichtet läuft das vor sich hin und bietet dann eigentlich nur vorteile im vergleich zu einem sammelsurium an raspis.
 
  • Gefällt mir
Reaktionen: -Pascal- und M-X
Ich habe gestern ein Update auf proxmox 7 gemacht. Bei mir problemlos allerdings läuft da nur raspberrymatic und pihole auf meiner alten APU2 die mal für pfsense verwendet wurde.
Virtualisiert eigentlich vor allem weil ich raspberrymatic nicht dazu gebracht die Konsole über die serielle Schnittstelle zu installieren (apu2 hat keinen Grafikanschluss).

Zum Thema vitualisierte Firewall wirds du Meinung wie Sand am Meer finden.

Den großen administriven overhead sehen ich nicht. Ist eben ein Rechner mehr denn man aktualisieren muß.
 
Andere Frage, wie lange bekommt 6.4 noch Updates?

Dann könnte ich mit dem Update auf 7.0 ggf. noch etwas warten.
 
Wenn du keine LXC container benutzt sollte es keine Probleme geben.
Mit pve6to7 wird vorher schon auf potentielle Fehler hingewiesen.
Ich habe mir mit clonezilla ein Image erstellt und dann stur die Schritte aus https://pve.proxmox.com/wiki/Upgrade_from_6.x_to_7.0 für das in place update gemacht.
Aber du hast auch noch 1 Jahr Zeit dafür 🙂

Korrektur: Fast stur - natürlich habe die community repositories eingetragen
Code:
deb http://download.proxmox.com/debian/pve bullseye pve-no-subscription
# security updates
deb http://security.debian.org/debian-security bullseye-security main contrib
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: polyphase
Hab gerade das Update gemacht mit:

LXC
pihole
Unifi Controller
Kodi Datenbank
Nextcloud

VM
Freifunk Offloader

Keine Probleme, läuft alles außer das sich teilweise die MAC Adressen ändern.

Hab mir vorher noch das Video angeschaut:
 
  • Gefällt mir
Reaktionen: polyphase
polyphase schrieb:
Wenn es schief geht, wird wieder alles Baremetall.
Äh,... nein? Sicherungen von VMs per Snapshot und Rollback ist mit Virtualisierung deutlich einfacher und schneller als alles einzeln auf Blech. Sobald man 2+ Virtualisierungshosts hat, kann man sein Setup auch redundant aufbauen und Ausfall von $Hardware kann einem egal sein.
Auf der anderen Seite steigt natürlich die Komplexität etwas aber das hätte einem auch bewusst sein sollen bevor man damit anfing. Wenn man sich nicht damit beschäftigen kann oder will dann ist es natürlich einfacher und für die Nerven schonender wenn man Dinge getrennt voneinander betreibt. Hat dann aber dafür die einzelnen Baustellen für Backup und $Hardwareausfall.
Ansonsten gibt es nur noch wenige Gründe um auf Virtualisierung zu verzichten. Das kann die Notwendigkeit sein für dedizierten HW-Zugriff was je nach Gerät sehr aufwendig sein kann oder wenn man irgendwelche Anwendungen betreibt, die höchste Performance benötigen und wo man Redundanzen über die Anwendung erschaffen kann, sodass man da Ausfall eines Nodes kaum spürt.

polyphase schrieb:
Google hilft nicht!
Naja wenn 8 von 10 Leuten mit $Suchmaschine etwas sinnvolles in kurzer Zeit fanden dann würde ich schon sagen, dass dies helfen kann.
Oft hilft es die Suchbegriffe etwas zu ändern, Synonyme zu verwenden, die Suchergebnisse einzuschränken, die Suche mal als ganze Frage zu formulieren, etc.
 
snaxilian schrieb:
Naja wenn 8 von 10 Leuten mit $Suchmaschine etwas sinnvolles in kurzer Zeit fanden dann würde ich schon sagen, dass dies helfen kann.
Oft hilft es die Suchbegriffe etwas zu ändern, Synonyme zu verwenden, die Suchergebnisse einzuschränken, die Suche mal als ganze Frage zu formulieren, etc.
Ähm, nein nicht immer.
Manchmal gibt Google für den absolut 100% gleichen Suchbegriff, auf verschiedenen Rechnern unterschiedliche Suchergebnisse raus.
Ich hätte nicht gefragt, wenn ich es nach einer gewissen Zeit gefunden hätte!

Inzwischen habe ich aber alle Infos die cih brauche und werde mich sobald Zeit, dem Thema annehmen.
Danke!
 
snaxilian schrieb:
Sobald man 2+ Virtualisierungshosts hat, kann man sein Setup auch redundant aufbauen und Ausfall von $Hardware kann einem egal sein.
Es braucht mindestens 3 Nodes um ein redundantes System zu bauen (HA Cluster). Einziger Umweg ist ein rPi mit QDevice.
 
Redundanz =! HA-Cluster.

Ansonsten reichen oft und je nach Clusterlösung problemlos zwei Nodes und ein passendes Quorum/Witness wenn man auch HA möchte.

Beim TE lese ich aber Spieltrieb aus Langeweile im heimischen Keller. Wenn da ein Hypervisor abraucht dann ist das schade aber verschmerzbar und nach Feierabend geht man halt hin und startet die VMs auf dem anderen Node neu, shared storage natürlich vorausgesetzt.

Man kann einen corosync/pacemaker Cluster, nichts anderes verwendet Proxmox, auch so konfigurieren, dass ein Node alleine die Mehrheit der Votes haben kann. Ja, bei Ausfall des Netzwerks/NICs hat man dann ein Splitbrain. Ärgerlich aber nicht direkt ein Weltuntergang. Muss man halt abwägen, welches Risiko vertretbarer ist.

Oder man spart sich die ganzen Cluster-/Failover Mechanismen und setzt auf HA durch die Anwendung sofern diese es unterstützt. Das kommt dann immer aufs Detail und das genaue Szenario an.
 
Zurück
Oben