Beiträge von Paul

    Wieso? Die Wartezeit läuft doch nur einmal, nachdem alle benötigten Records hinzugefügt wurden. Die werden ja gemeinsam überprüft von LE. (Glaube ich zumindestens, ich nutze acme.sh nicht!)

    Den Logs nach zu urteilen wartet acme.sh wirklich nach jedem DNS Eintrag die entsprechende Wartezeit und fährt dann erst mit der nächsten Domain fort. Einen 15 Minuten Wait Timer finde ich jetzt aber auch etwas übertrieben. Da würde ich dann eher den DNS Provider wechseln als so etwas zu akzeptieren, falls das wirklich notwendig sein sollte. Ich selbst habe hier 5 Sekunden konfiguriert (ich nutze aber auch nicht die Netcup DNS API).

    Hast du das hier schon mal versucht https://grml.org/faq/#lvm ?


    Zitat

    LVM (Logival Volumes) is not started by default to avoid any possible damage to your data. To get access to present LVM devices execute (replace "$name" with the name of the PV):

    Code
    # Start lvm2-pvscan@$name

    or if you don't know its name, use:

    Code
    # Start lvm2-lvmetad
    # vgchange -ay

    If you want to enable LVM by default just boot using the 'lvm' bootoption which automatically enables LVM.

    Ja, ich weiß, es hat mich nur in den Fingern gejuckt, das noch anzudeuten :) Ich halte auch den Mail Client für die beste Lösung. Mache ich genauso.

    Aber vielleicht möchte man ja sowieso etwas üben und Skripte schreiben. Da wäre das bestimmt ein schönes Beispiel, bei man etwas lernen kann.

    Also eine Möglichkeit wäre natürlich, dass man auf dem Webhosting ein Script (über Cron) laufen lässt, das z.B. über das PHP IMAP Modul die Mail selbstständig löscht. Dadurch hätte man auch eine entsprechende Automatisierung. Hier stellt sich dann eher die Aufwand <-> Nutzen Frage und inwieweit man dazu (programmiertechnisch) in der Lage ist. Aber unmöglich scheint das nicht zu sein.

    Ich frage mich ja, was Netcup mit den (vielen) gekündigten Optane VPS Servern eigentlich macht. :/ Da man diese nicht als reguläres Produkt mieten kann, müssten die Plätze ja quasi ungenutzt "herumliegen". Diese können ja nicht mit neuen Kunden aufgefüllt werden.

    Wobei das hier natürlich schon eher in eine allgemeine Kritik gegenüber automatisierter Installationen abschweift. Man muss das alles auch immer etwas Abwegen. Ich finde das Skript z.B. für diesen Anwendungszweck (vor allem im privaten Umfeld) völlig ausreichend. Wenn die Umgebungen kritischer werden, setzt man sowas meist auch gar nicht mehr ein (persönlich bevorzuge ich für diese Zwecke ein MySQL Workbench über einen SSH Tunnel).


    Am Besten fährt man natürlich immer noch mit den signierten Paketen der eigenen Distribution. Da liegen die Keys nämlich schon lokal vor und die heruntergeladenen Pakete können dagegen geprüft werden (es sei denn man setzt auf Debian/Ubuntu und installiert teils stark veraltete, ungepatchte Software, dann bringt auch das Signieren nichts). Sobald externe Quellen zum Einsatz kommen hat man schon wieder das Problem, dass Key und Paket meist aus derselben Quelle stammen. Dann fahre ich nicht wirklich sicherer als wenn ich ein tar.gz von von Github herunterlade. Durch den aktuellen Docker Trend ist das ja auch nicht besser geworden. Die wenigsten erstellen die Images selbst.


    Meine Ansible Playbooks laden zum Teil auch einfach Releases von Github herunter. Ein Restrisiko bleibt natürlich immer bestehen, wenn man externe Software einsetzt. In der Regel hat man aber ganz andere Baustellen und größere Risiken als das hier.

    Das ist mal ein guter Hinweis, danke! Das hab ich tatsächlich bisher sehr erfolgreich überlesen. Das werde ich mir definitiv anschauen.


    Ungeachtet dessen würde ich trotzdem gerne verstehen, wie z. B. GitLab.com mit den Sicherheitsproblemen umgeht, die mit der Bereitstellung von dind einhergehen. Offensichtlich kann man da ja auch ohne kaniko Docker-Images bauen und hochladen.

    Ich glaube ja, wenn man sich die (Critical) Security Patches von Gitlab so anschaut, dass die Dind Runner wohl ihr kleinstes Problem sind :-). Da gibt es ja quasi wöchentlich irgendwelche Bugs, Code Execution Lücken etc.

    Im Grunde ist das ja auch erstmal nur ein theoretisches Problem. Dafür braucht es auch erstmal praktische Anwendungen. Die Runner werden, soweit ich weiß, auch dynamisch auf dedizierten Servern erstellt. Selbst bei einem erfolgreichen Ausbruch aus einem Container, würde man ja erstmal nicht so weit kommen. Kritischen Code sollte man sowieso nicht auf Shared Runnern ausführen lassen.

    Grafana ist ja auch nur ein graphisches Frontend, das erst mit Daten gefüttert werden muss (z.B. von einem Prometheus Server oder Zabbix).


    Ich empfehle immer gerne Zabbix, das läuft auch auf einem VPS200 gut. Da kann man zur Not immer noch ein Grafana dranhängen, wenn einem die Graphen dort besser gefallen. Zabbix braucht ein wenig Eingewöhnungszeit, aber das bringt schon recht viele Templates mit, die man im ersten Schritt erstmal so nutzen kann.

    Schau dir Mal wikijs an. Das hat seit ein paar Tagen auch Katex integriert, wodurch es zumindest für mich interessant geworden ist. Da lässt sich bei jedem Artikel selbst auswählen welchen Editor man nutzen möchte (u.a. auch Markdown).

    Auch von mir an dieser Stelle frohe und erholsame Weihnachten. :) Vielleicht findet ja der ein oder andere Zeit jetzt in den ruhigeren Tagen ungenutzte Angebotsserver in Betrieb zu nehmen. Bei mir steht auch noch eine Migration an. Dann können wir zu uns nächstes Jahr vielleicht endlich auf die neuen G9 Server stürzen.

    Hat hier jemand Alkohol gesagt? Normalerweise trinke ich ja eher selten Bourbon, habe mir die Tage aber mal einen Woodford Reserve gegönnt. Oh, ist der lecker. Also falls jemand noch ein Weihnachtsgeschenk sucht, den kann ich sehr empfehlen.

    Dann fehlt jetzt ja nur noch der RS 2000 (SSDx4). Den 1000er, 4000er, 8000er hatten wir schon. Und mit der heutigen Tür ist jetzt auch die VPS Reihe komplett (bis auf den VPS 2000, aber den gab es wohl so auch noch nie im Angebot, wenn ich mich richtig erinnere). Wir dürfen gespannt sein.

    Vielleicht hätte ich mal Lotto spielen sollen ^^

    Ah, das Bild wurde bei mir nicht direkt angezeigt. Ich bin jetzt mal nur von dem Text ausgegangen und dachte, es geht um den realen Workload. Die Werte aus den Screenshots überraschen mich jetzt aber doch etwas. Ein Steal von 0,0 wäre so aus meiner Sicht bei einem VPS gar nicht zu erwarten/möglich. Selbst bei den RS hat man in der Regel Werte zwischen 0,1 - 0,3. Was im Grunde auch völlig in Ordnung ist. Daher wundert es mich schon etwas, wo das jetzt herkommt.

    Hier noch mal die Werte meiner beiden VPS 200 ADV19:

    >40% vs 0%. Ärgerlich ist eigentlich nur, dass auf dem Server, der den höheren Steal aufweist, mailcow läuft, der andere Server hat quasi nichts zu tun.

    Wobei das natürlich auch genau damit zusammenhängt. Auf einem Idle System ist der Steal erwartungsgemäß immer nahe Null. Steal merkt oder sieht man immer erst bei entsprechender Last. Daher wäre erst ein 1:1 Vergleich wirklich interessant. Hast du nicht mal Lust auf dem ungenutzten System ebenfalls eine Installation durchzuführen? Dann könnte man das besser vergleichen.

    Dann fehlt jetzt ja nur noch der RS 2000 (SSDx4). Den 1000er, 4000er, 8000er hatten wir schon. Und mit der heutigen Tür ist jetzt auch die VPS Reihe komplett (bis auf den VPS 2000, aber den gab es wohl so auch noch nie im Angebot, wenn ich mich richtig erinnere). Wir dürfen gespannt sein.

    Aber ein wenig wundert es mich ja schon. Der VPS 200 bekommt 90 Cent Rabatt, aber alle anderen deutlich weniger. Vielleicht haben die dafür dann aber auch etwas weniger Steal :)