Posts by cljk

    Das hab ich soweit auch, nur dass post-up und post-down nicht gefunden werden ?

    Vorrausgesetzt du meinst, dass man das in der Shell der pve node ausführt. Kann ich das einfach bedenkenlos mit apt installieren ?


    Ich habe außerdem gelesen, dass man Iptables und die Proxmox firewall nicht mischen soll, aber die Proxmox Firewall unterstützt soweit ich das sehe gar kein Prerouting etc.

    post-up und post-down sind prefixe in der "interfaces" Konfigurationsdatei.... keine Befehle für die Kommandozeile

    Hast Du denn überhaupt PHP installiert und im Apache aktiviert?

    Gibt viele Methoden - das einfachste ist vermutlich mod_php


    $ sudo apt-get install php libapache2-mod-php

    $ a2enmod php

    $ a2enmod rewrite

    $ service apache2 restart

    Offtopic bzgl Upgrade von Containern:


    Habs gestern ausprobiert.... Ubuntu 16.04.1 installiert, Update auf 16.04.4 (war glaube .4) ... danach Release-Upgrade auf 18.04.3


    Also die Bedenken konnte ich mir selbst schonmal nehmen. Funktioniert als wär nie was gewesen. Vielleicht ist das der Unterschied zw. OpenVZ und LXC auf Proxmox.

    Selfbuild mit ITX Board. Habe ich auch, läuft sogar auch ProxMox drauf (aktuell 14 Debian Container & eine CentOS VM). :)


    Mein Build:

    [...] ;)

    Ich will jetzt nicht unnötig den Thread sprengen - aber meine Erfahrungen bzgl. LXC/VZ-Container waren bisher immer Kundenseitig (Miete bei Anbietern) - sonst betreibe ich zwei vSphere Cluster mit 6 Hosts (nicht privat) und ~20 Docker Container...

    Kontakt mit Proxmox und den steuerbaren LXC-Containern ist für mich daher neu.


    Vielleicht weisst Du das, wenn Du das schon länger betreibst:

    Angenommen, ich setze einen Container mit Ubuntu 16.04 Template auf, mach mir den fein, installier den durch... kann ich dann später ein release-upgrade machen - wie in einer VM - auf Ubuntu 18?


    Ich frage, weil ich das früher als Kunde beim Hoster NICHT konnte, und das so der Hauptgrund für mich ist, die LXC Container nicht weiter zu verfolgen. Konfiguration der ganzen Kisten ist ja nicht unerheblich. Allerdings spart man natürlich auch ne Menge Ressourcen ein, wenns geht.


    Vielleicht probier ichs einfach mal aus

    Ich hatte den Fall jetzt auch... RS 8000 SAS


    Das System hatte ca 140 GB belegt... SCP zeigte aber ~250 GB an und Optimierung wäre notwendig.

    Nach der Optimierung zeigt SCP jetzt die korrekten 140 GB an.


    Ich GLAUBE zu wissen, woran das bei mir liegen könnte:

    Das System, was ich installiert hab (Proxmox), erstellt Regelmäßig Exporte der VMs/CTs und macht davon dann ein offsite-Backup. Die Exporte werden dann immer wieder gelöscht/überschrieben.


    Ich GLAUBE²: Das System von Netcup merkt, dass nicht alle Sektoren genutzt sind und schlägt die Optimierung deshalb vor, damit das bei denen Host-seitig wieder frei wird. Ich glaub, das lasse ich künftig einfach sein. Das Löschen der Snapshots ist da mein Hauptgrund...

    Das geht IMHO nur über die Konsole - ich hab mich grob an diese Anleitung gehalten.


    https://techlr.de/proxmox-nat-vms-einrichten/


    Damit bekommst Du ein vmbr1-Interface eingerichtet, an das Du Deine Container hängen kannst, sodass die per NAT raustelefonieren können.

    Schauste in den Absatz "Erreichbarkeit der Dienste" - da siehst Du, wie Du das weiter anpassen kannst, damit die Dienste von Extern erreichbar sind (was ich selbst nicht nutze).



    Nebenbei: halte ich das für ein bischen viel Einrichtungsaufwand, wenn Du eh mit dem Gedanken spielst, das nur temporär zu machen. Da gehen ja schnell paar Stunden bei drauf. Wäre mir ggf. zu viel verschwendete Zeit.


    Nebenbei 2: Ich bin mir nicht sicher, ob OpenVPN im Container funktioniert. Hab ich noch nie gemacht... ich würd das zum vorher prüfen. Grund ist, dass das ja ein Netzwerkinterface erzeugt...

    Ich meine die Systeme sind anders aufgebaut. Angenommen jede SAS Platte schafft ihre 180 MB/s, dann sieht es mit 500 MB/s Write und 350 MB/s Read eher nicht nach deiner RAID10 Konfiguration aus.

    Netcup schreibt dazu nichts - ich vermute allerdings, das sind CEPH-Cluster.


    Das würde auch erklären, dass die Performance bei Anzahl der vielen Platten in der VM zwar sehr gut ist - aber nicht die Geschwindigkeit erreicht, die das System theor. erreichen könnte


    PS

    RAID10 steht in der offiziellen Doku - und was RAID10 ist, kann man ja nachlesen.

    Das verstehe ich jetzt nicht so ganz. Wenn bei einem 2er-Verbund 2 Festplatten ausfallen dann ist die Wahrscheinlichkeit eines Datenverlusts ziemlich hoch ;)

    Ja... die ist bei 100%. ;-)


    Der 24er Verbund R10 ist aber ein RAID-0-Stripe über 12 kleine 2er-Verbünde je RAID 1.

    Und die Wahrscheinlichkeit, dass einer der 12 2er-Verbünde kaputtgeht, weil nicht rechtzeitig ein Hotspare eingesetzt ist, ist eben 12x so hoch, wie dass ein einzelner 2er-Verbund hopps geht. Und wenn das passiert, ist der komplette große 24er-Verbund kaputt...


    Wie gesagt: vermutlich immernoch sehr sehr unwahrscheinlich - aber ich hab im lokalen RZ schonmal erlebt, wie in einem 6er-Verbund an einem Tag 2 Platten übern Jordan gegangen sind....

    Danke für die Antwort.... dann werd ich das mal im Hinterkopf behalten und ggf. dann nach Bestellung Kontakt zum Support aufnehmen. Ich richte jetzt erstmal ein Offsite-Backup ein.



    Bzgl. RAID10: Nichts für Ungut... aber das stimmt so nicht ganz ;-)


    Es können bis zu(!) 12 HDDs ausfallen.... es können aber auch einfach 2 ausfallen - und wenn das die falschen sind, ist der Spiegel kaputt.

    Und die Wahrscheinlichkeit, dass das in einem 24er-Verbund passiert ist 12x so hoch, wie bei einem 2er-Verbund.


    Vermutlich ist es fast überflüssig, sich auf der Ebene Gedanken zu machen - sagen wir einfach: ich hab da ein ungutes Gefühl...

    Vielleicht belasse ich es aber tatsächlich bei einem Offsite-Backup, das schnell genug wiederhergestellt ist.

    Hi,


    ich habe aktuell einen Root-Server gemietet (RS 8000 SAS G8SE), VMX-Flags aktiviert, Proxmox installiert und VMs drauf. Funktioniert technisch bisher wundervoll.

    (Grund für diese Konstruktion ist schlichtweg, dass die korrekte Konfiguration des vServers/VPS so viel Zeit frisst, dass ich unbed. gern eine Virtualisierungsschicht dazwischen haben möchte, um im Zweifel die VM "schnell" auf ein größeres System migrieren zu können und es mit Wechsel der IP getan ist.)


    Die Produktbeschreibung besagt:

    • dedizierte CPU-Kerne
    • dedizierter garantierter RAM
    • aber shared RAID-10 .. .über 24(!) Platten

    Ich bin damit einverstanden - sonst hätt ichs nicht bestellt - und die Performance ist sehr zufriedenstellend... keine Frage.

    Die 24 HDDs im RAID-10 machen mir aber ein bischen Sorge, was die Ausfallsicherheit angeht.


    Zwei Fragen:


    1) Hält Netcup selbst Backups der VMs vor? Ich vermute mal nein... also werde ich was externes einrichten.

    2) ich überlege außerdem noch 2 weitere Root-Server vergleichbarer Kategorie zu bestellen und Proxmox im Cluster zu betreiben und die VMs zu replizieren. Das macht aber nur Sinn, wenn die 2 weiteren Server auf anderen Hosts betrieben werden. Kann man Netcup bitten, die Server auf getrennten Hosts zu betreiben?