Ja - System zu klein - ist nur ein kleiner 4 Core SOC der dafür unter 10W unter last braucht.
Hatte am Ende ok Werte, 100 MB lesen / 60 MB Schreiben auf drehenden Platten.
Aber dafür auch 90% Ram voll und 99% CPU Auslastung
Proxmox: Netzwerk.Verzweifelung
- mfnalex
- Thread is marked as Resolved.
-
-
Um noch mal auf die ursprüngliche Frage zurückzukommen:
ip a und ip r auf dem Host:
Da sind halt schon unnötige Routen in der Liste. Aber ob die stören, steht auf einem anderen Blatt.
Ich vermute auch, dass die verschiedenen Frameworks sich da in die Quere kommen. ufw, docker und ProxMox sind am Ende vermutlich einfach zu viel.
-
Alles klar, dann werd ich wohl mal alles neuinstallieren und später berichten!
-
Hab Proxmox jetzt per ISO installiert und nichts gemacht außer in der sshd PasswordAuthentication zu verbieten. Jetzt geht noch weniger als vorher
-
und nichts gemacht außer in der sshd PasswordAuthentication zu verbieten.
Das war dann auch zu erwarten.
-
Das war dann auch zu erwarten.
Verstehe nicht was die SSHD-Einstellungen auf dem Host mit dem Netzwerk in der VM zu tun haben
Da ich Proxmox per ISO installiert habe, und dabei auch automatisch eine Bridge angelegt wird, sollte doch eigentlich auf dem Host nichts weiter zu tun sein um Netzwerk in den VMs zu bekommen
-
Verstehe nicht was die SSHD-Einstellungen auf dem Host mit dem Netzwerk in der VM zu tun haben
SSHD nicht. Das "nichts gemacht außer SSHD" ist das Problem.
Da ich Proxmox per ISO installiert habe, und dabei auch automatisch eine Bridge angelegt wird, sollte doch eigentlich auf dem Host nichts weiter zu tun sein um Netzwerk in den VMs zu bekommen
Nein. IP Settings, Routen, Firewall, ... alles muss eingerichtet werden.
-
Nein. IP Settings, Routen, Firewall, ... alles muss eingerichtet werden.
Wozu ist denn dann der ISO-Installer gedacht wenn es am Ende doch nur ein Debian ohne irgendwelche spezielle Proxmox-Konfiguration ist?
Jedenfalls funktioniert jetzt alles mittels folgender Bridge
Codeauto vmbr1 iface vmbr1 inet static address 192.168.50.1 netmask 255.255.255.0 bridge_ports none bridge_stp off bridge_fd 0 post-up echo 1 > /proc/sys/net/ipv4/ip_forward post-up iptables -t nat -A POSTROUTING -s '192.168.50.0/24' -o enp9s0 -j MASQUERADE post-down iptables -t nat -D POSTROUTING -s '192.168.50.0/24' -o enp9s0 -j MASQUERADE
-
Es ist halt ein Installer, der alle Abhängigkeiten mitbringt. Dass er einem vorgefertigt alle Konfigurationen mitbringt, steht da nicht.
Es ist ja auch nicht so, dass man das nicht auch auf einem Standard Debian hinbekommen würde. Bei dir war es nur so, dass sich ufw, docker und Proxmox dann am Ende in die Quere kamen. Du hättest ein sauberes Standard Debian auch hinbiegen können, und du kannst problemlos auch dein laufendes Proxmox in den gleichen hoffnungslosen Zustand versetzen.
Denke noch an die Firewall. Da ist bei Proxmox auch einfach nichts drin.
-
So, hab es jetzt hinbekommen dass Container/VMs sowohl Internet per IPv4 als auch IPv6 haben Keine Ahnung ob diese Config sinnvoll ist, aber sie funktioniert
Code
Display Moresource /etc/network/interfaces.d/* auto lo iface lo inet loopback iface lo inet6 loopback auto enp9s0 iface enp9s0 inet static address 188.40.80.147 netmask 255.255.255.255 pointtopoint 188.40.80.129 gateway 188.40.80.129 iface enp9s0 inet6 static address 2a01:4f8:221:13e3::1 netmask 128 gateway fe80::1 up sysctl -p auto vmbr0 iface vmbr0 inet static address 10.0.0.1 netmask 255.255.255.0 bridge_ports none bridge_stp off bridge_fd 0 post-up iptables -t nat -A POSTROUTING -s '10.0.0.0/24' -o enp9s0 -j MASQUERADE post-down iptables -t nat -D POSTROUTING -s '10.0.0.0/24' -o enp9s0 -j MASQUERADE iface vmbr0 inet6 static address fc00::1/7 post-up ip6tables -t nat -A POSTROUTING -s 'fc00::/7' -o enp9s0 -j MASQUERADE post-down ip6tables -t nat -D POSTROUTING -s 'fc00::/7' -o enp9s0 -j MASQUERADE
-
Zum rumspielen okay. Aber Du kannst natürlich auch richtig öffentliche IPs durchrouten/bridgen.
-
Zum rumspielen okay. Aber Du kannst natürlich auch richtig öffentliche IPs durchrouten/bridgen.
Ja, wenn ich davon Ahnung hätte Ich bin schonmal froh dass es so funktioniert. Bei meinem Anbieter gibt es auch eine Anleitung sowohl für routed als auch bridged, aber... damit hab ich's nicht hinbekommen.
Welche Nachteile hat denn meine aktuelle Config?
-
Welche Nachteile hat denn meine aktuelle Config?
Keine wenn Du Dinge in den VMs nicht von außen erreichbar machen willst. Wenn doch musste halt NAT Port Forwarding machen, ähnlich wie Docker es macht.
Ansonsten kann bei richtig vielen Verbindungen (einige tausend Verbindungen gleichzeitig) bei NAT zu Performance Problemen kommen.
-
Keine wenn Du Dinge in den VMs nicht von außen erreichbar machen willst. Wenn doch musste halt NAT Port Forwarding machen, ähnlich wie Docker es macht.
Ansonsten kann bei richtig vielen Verbindungen (einige tausend Verbindungen gleichzeitig) bei NAT zu Performance Problemen kommen.
Ja ich mach das über NAT. Einige tausend Verbindungen werd ich hoffentlich nie erreichen, und wenn doch läuft sowieso was schief
-
Ja ich mach das über NAT. Einige tausend Verbindungen werd ich hoffentlich nie erreichen, und wenn doch läuft sowieso was schief
Dann wird deine VM aber von Außen nicht erreichbar sein
Also kein TS, Game, Web etc Server
Warum genau machst du das eigentlich mit Proxmox?
Und warum keine zusätzlichen IPv4 Adressen für deine VM? Die würden über virtuelle MAC Adressen direkt an dein Interface gebunden werden. -
Warum genau machst du das eigentlich mit Proxmox?
Warum nicht? Proxmox ist Open Source, hat eine schöne Weboberfläche (= einfache Bedienung) und hat eine große Community. Mal davon abgesehen, dass es viele Features besitzt, kann man es auch erweitern z.B. mit dem Backup Server.
Und warum keine zusätzlichen IPv4 Adressen für deine VM? Die würden über virtuelle MAC Adressen direkt an dein Interface gebunden werden.
Weil IPv4 Adressen immer rarer werden. Beim großen roten H, wo @mfnalex sein Server betreibt, gab es erst vor kurzem eine starke Preissteigerung für IPv4 Adressen. Die richtige Frage wäre daher: wozu die weiteren IPv4 Adressen? Wenn es dafür keinen triftigen Grund gibt, würde ich definitiv weitere IPv4 Adressen sparen.
Damit man NAT nicht umständlich via iptables Regeln am Host regeln muss, kann man übrigens auch eine Router VM einsetzen. Das macht den administrativen Aufwand etwas angenehmer.
-
Warum nicht? Proxmox ist Open Source, hat eine schöne Weboberfläche (= einfache Bedienung) und hat eine große Community. Mal davon abgesehen, dass es viele Features besitzt, kann man es auch erweitern z.B. mit dem Backup Server.
Das Proxmox seine daseinsberechtigung hat habe ich nicht in Frage gestellt - der Einsatzzweck hier in diesem Fall, ohne Server die offene Dienste bereitstellen, erscheint es mir als die Umständlichere Lösung wenn doch ein paar KVM's reichen würden. Dafür gibts auch GUI's - wers mag...
-
Dann wird deine VM aber von Außen nicht erreichbar sein
Also kein TS, Game, Web etc Server
Warum genau machst du das eigentlich mit Proxmox?
Und warum keine zusätzlichen IPv4 Adressen für deine VM? Die würden über virtuelle MAC Adressen direkt an dein Interface gebunden werden.Doch, funktioniert problemlos.
Anstatt 10 kleine VPS hab ich lieber einen dedicated. Spart Geld
Und wenn ich 10 IPv4 Adressen bezahlen müsste, wär es wieder genau so teuer