Posts by Paul

    Auf dem Boden des Aquariums steht wahrscheinlich eine Schatzkiste mit Goldbarren. Die Fische sollen das beschützen. Andere holen sich Killer-Hunde ins Haus, unser geekmonkey ist da wohl etwas kreativer und macht das mit Killer-Fischen ;-)

    Zeige uns doch mal deine /etc/default/grub Vielleicht sehen 4 Augen mehr als 2. Du hast aber schon darauf geachtet die grub config nach der Änderung auch neu zu erstellen (mit grub2-mkconfig ...)?

    Alternativ könntest du das auch von einem Tool wie tuned erledigen lassen. Kommt zwar eher aus der RedHat Ecke, funktioniert aber auch in Debian/Ubuntu. Lässt sich dort problemlos nachinstallieren.

    Gerade wenn du zu Beginn nicht genau weißt wie du den Server partitionieren sollst, ist LVM eigentlich genau das richtige Mittel. Einfach eine VG anlegen und mit minimaler Konfiguration starten (z.B. / mit 20GB, /var mit 80 GB). Den Rest dann bei Bedarf vergrößern. Das ist mit "normalen" Partitionen nicht so einfach möglich, weil es da ja darauf ankommt, mit welchem Sektor die Partition anfängt oder wieder aufhört. Man möchte man eigentlich später ungern ändern.

    Daher empfehle ich hier definitiv wieder zu LVM zu greifen.

    LVM hat auf die Snapshot-Funktionalität keinerlei Auswirkung. Für den Snapshot ist die Partitionierung ziemlich egal, auch welches FS oder OS du installiert hast etc.

    Mir ging es eher um die Differenz zu deinem anderen Anbieter. Laut Grafik hast du da eine Latenz von ~9ms und bei Netcup ~12ms. Macht eine Differenz von 3ms. Aus meiner Sicht ist das vernachlässigbar. Daher meine Frage bzgl. der Anwendung. Bei "normalen" Anwendungen wie Webseiten ist man aufgrund der Ladezeit sowieso schon im dreistelligen ms Bereich. Eine Seite, die nach 200-300ms lädt, ist da schon richtig gut. Da spielen 3ms überhaupt keine Rolle. Ich befürchte nämlich, dass du dir dasselbst ein Problem einredest, wo eigentlich gar keines ist ;-). Selbst im Gaming Bereich sind 3ms Unterschied noch völlig ok. Da spielt dann die Server Performance eine weit größere Rolle.

    Die Nextcloud zerstückelt uploads, ich hatte da bisher keinerlei Probleme mit Dateien größer als Memory-Limit und Upload Filesize.

    Vllt. kann das noch jemand aus dem Forum bestätigen.

    Der offizielle Nextcloud Client für Windows/Linux/Android ja. Aber wenn man Dateien über die Weboberfläche hochladen möchte, wird das meines Wissens nach nicht in mehrere kleinere Uploads unterteilt. Da greift dann wirklich das PHP Upload Limit.

    Man darf hier auch den Druck des Marktes nicht ganz außer Acht lassen. Wenn die Konkurrenz mit solchen "Vorteilen" wirbt, muss man sich da auch entsprechend anpassen können, auch wenn es von den Prozessen her momentan noch nicht ideal passt. Klar ist ja schon, dass das hier bei Netcup aktuell eher mittelmäßig gelöst ist und nur bedingt Sinn macht. Server müssen ja weiterhin manuell bestellt und im Voraus für mehrere Monate bezahlt werden und werden dann (wie immer bisher) mit einem (veralteten) Froxlor Image und einer Public IP ausgeliefert. Wenn man die stundenbasierte VM wirklich nur mal kurz zum Testen nutzen möchte, würde man aktuell ja trotzdem noch, erstmal im SCP das 2. NIC konfigurieren, den Server mit einem neuen Image bespielen müssen etc. Das ist recht viel Aufwand dafür, dass man ein paar Cent sparen kann.

    Stundenbasierte Abrechung macht aus meiner Sicht nur dann Sinn, wenn man VMs per API auch automatisiert mit einem Image seiner Wahl provisionieren kann. Soll ja aber in Zukunft vielleicht irgendwann dann einmal auch kommen. Wenn dann in Berlin mal die ersten Fluge vom neuen Flughafen starten, kann man in der Wartehalle bestimmt auch bei Netcup dank Cloud Init und einer neuen API mal schnell eine neue VM deployen ;-).

    Mir selbst würde ja bei Netcup eine einmonatige Mindestlaufzeit völlig reichen. Denn dafür sind die Preise einfach viel zu gut. Das kann man ja mit anderen, größeren Cloud Anbietern überhaupt nicht vergleichen. Da bezahlt man schnell mehr als das 10-fache für wahrscheinlich nicht einmal die gleiche Leistung. Dafür kann man dort die VM halt einfacher starten und wieder kündigen. Wenn Netcup das ebenfalls so machen würde, hätten wir hier vermutlich aber auch ganz schnell andere Preise. Das muss sich ja irgendwie rechnen. Die Ressourcen, die für so einen Dienst vorgehalten werden müssen, müssen ja auch irgendwie bezahlt werden.

    Mir als Kunde wäre es eigentlich am liebsten, wenn Netcup genau so bleiben würde wie bisher mit einem Super Preis-/Leistungsverhältnis. Da verzichte ich dann auch gerne auf gehypte Cloud Features. Wer das unbedingt benötigt, bekommt es woanders ja jetzt schon. Ist ein schmaler Grat, auf dem man sich da bewegt.


    Aktionen gibt es derzeit auch nicht wirklich. ;(

    Kein Sylvester VPS, kein Neujahrskracher, kein Jahr-der-Ratte-Aktionsserver. Gelegenheiten gab es eigentlich reichlich. Eigentlich schade. Da war Netcup in den letzten Jahren deutlich aktiver.

    Ich würde an dieser Stelle einfach einen "Firewall-Helper" empfehlen, der sich mit Docker verträgt z.B. Firewalld. Habe damit bisher immer sehr gute Erfahrungen gemacht. Damit lässt sich problemlos Docker auf einem Host betreiben und gleichzeitig mit Firewalld die iptables Regeln verwalten (diejenigen, die sich nicht auf Docker beziehen).

    Wieso? Die Wartezeit läuft doch nur einmal, nachdem alle benötigten Records hinzugefügt wurden. Die werden ja gemeinsam überprüft von LE. (Glaube ich zumindestens, ich nutze acme.sh nicht!)

    Den Logs nach zu urteilen wartet acme.sh wirklich nach jedem DNS Eintrag die entsprechende Wartezeit und fährt dann erst mit der nächsten Domain fort. Einen 15 Minuten Wait Timer finde ich jetzt aber auch etwas übertrieben. Da würde ich dann eher den DNS Provider wechseln als so etwas zu akzeptieren, falls das wirklich notwendig sein sollte. Ich selbst habe hier 5 Sekunden konfiguriert (ich nutze aber auch nicht die Netcup DNS API).

    Hast du das hier schon mal versucht https://grml.org/faq/#lvm ?


    Quote

    LVM (Logival Volumes) is not started by default to avoid any possible damage to your data. To get access to present LVM devices execute (replace "$name" with the name of the PV):

    Code
    1. # Start lvm2-pvscan@$name

    or if you don't know its name, use:

    Code
    1. # Start lvm2-lvmetad
    2. # vgchange -ay

    If you want to enable LVM by default just boot using the 'lvm' bootoption which automatically enables LVM.

    Ach, über die Jahre härtet man hier ganz schön ab. Irgendwann überrascht einen hier gar nichts mehr. Und dann tut es auch nicht mehr weh ;)

    Ja, ich weiß, es hat mich nur in den Fingern gejuckt, das noch anzudeuten :-) Ich halte auch den Mail Client für die beste Lösung. Mache ich genauso.

    Aber vielleicht möchte man ja sowieso etwas üben und Skripte schreiben. Da wäre das bestimmt ein schönes Beispiel, bei man etwas lernen kann.

    Also eine Möglichkeit wäre natürlich, dass man auf dem Webhosting ein Script (über Cron) laufen lässt, das z.B. über das PHP IMAP Modul die Mail selbstständig löscht. Dadurch hätte man auch eine entsprechende Automatisierung. Hier stellt sich dann eher die Aufwand <-> Nutzen Frage und inwieweit man dazu (programmiertechnisch) in der Lage ist. Aber unmöglich scheint das nicht zu sein.

    Ich frage mich ja, was Netcup mit den (vielen) gekündigten Optane VPS Servern eigentlich macht. :/ Da man diese nicht als reguläres Produkt mieten kann, müssten die Plätze ja quasi ungenutzt "herumliegen". Diese können ja nicht mit neuen Kunden aufgefüllt werden.

    Wobei das hier natürlich schon eher in eine allgemeine Kritik gegenüber automatisierter Installationen abschweift. Man muss das alles auch immer etwas Abwegen. Ich finde das Skript z.B. für diesen Anwendungszweck (vor allem im privaten Umfeld) völlig ausreichend. Wenn die Umgebungen kritischer werden, setzt man sowas meist auch gar nicht mehr ein (persönlich bevorzuge ich für diese Zwecke ein MySQL Workbench über einen SSH Tunnel).


    Am Besten fährt man natürlich immer noch mit den signierten Paketen der eigenen Distribution. Da liegen die Keys nämlich schon lokal vor und die heruntergeladenen Pakete können dagegen geprüft werden (es sei denn man setzt auf Debian/Ubuntu und installiert teils stark veraltete, ungepatchte Software, dann bringt auch das Signieren nichts). Sobald externe Quellen zum Einsatz kommen hat man schon wieder das Problem, dass Key und Paket meist aus derselben Quelle stammen. Dann fahre ich nicht wirklich sicherer als wenn ich ein tar.gz von von Github herunterlade. Durch den aktuellen Docker Trend ist das ja auch nicht besser geworden. Die wenigsten erstellen die Images selbst.


    Meine Ansible Playbooks laden zum Teil auch einfach Releases von Github herunter. Ein Restrisiko bleibt natürlich immer bestehen, wenn man externe Software einsetzt. In der Regel hat man aber ganz andere Baustellen und größere Risiken als das hier.