Posts by Paul

    In einer Docker Umgebung ist Traefik noch ein ziemlich tolles Ding.

    Nicht nur in einer Docker Umgebung. Auch außerhalb ist es dank seiner einfachen YAML Konfiguration und der integrierten Letsencrypt Automatisierung sehr angenehm. Wenn nicht unbedingt Webserver Funktionalitäten benötigt werden, ist es gerade für so etwas sehr empfehlenswert. Es kann sogar TCP Loadbalancing auf SNI Basis. Das findet man sonst eher selten.

    wo habe ich das denn behauptet?!

    subaddress extension ist einfach nur ein standard, der in einem eigenen RFC festgeschrieben wurde – nicht mehr, nicht weniger und schon gar nicht »ominös«.

    Gar nicht. Darum ging es mir auch nicht. Ich habe nur deine Aussage bestätigt, dass ein Delimiter eine reine Empfangsgeschichte ist. Daran ist auch gar nichts verkehrt. Problematisch oder zweifelhaft (sprich ominös) wird es aber, wenn Mails von einer Delimiter Adresse versandt werden bzw. eben nicht. Da ist es nicht mehr ersichtlich, ob gewisse Adressen ein oder derselben Person gehören. Ging ja auch eher um die Frage, wie der Support mit Delimiter umgeht bzw. umgehen sollte. Und das macht er meiner Meinung nach richtig. Daher trifft es die Sache mit dem Wort "omniös" schon recht gut.

    was soll daran denn bitte ominös sein?! :huh:

    der zuständig empfangende mailserver muss damit umgehen können und sonst niemand.

    mainziman hat hier schon insoweit recht, dass ein solcher Delimiter zwar zum Empfang genutzt werden kann, aber nicht zwangsläufig daraus geschlossen werden kann, dass es sich bei mail@example.com und mail+foobar@example.com um ein und dasselbe Postfach bzw. dieselbe Person handelt. Es könnte durchaus sein, dass genau aus diesen Gründen, dass man es zwar annehmen könnten, Phishing Versuche gemacht werden. Daher sehe ich es eigentlich auch so, dass der Netcup Support hier absolut richtig gehandelt hat. Es wäre dennoch praktisch, wenn man im CCP mehrere E-Mail Adressen als Konakt hinterlegen könnte.

    Kommt stark auf den Anwendungszweck an:
    * Mailserver: rsa2048 (alles andere macht Probleme)
    * Webserver: ec256


    Der Sicherheitsgewinn von rsa4096 vs rsa2048 ist recht gering im Vergleich zum Performanceverlust, daher lohnt sich das meines Erachtens nicht, es sei denn irgendeine Compliance Regel schreibt das vor. EC ist hier RSA deutlich überlegen, dafür ist es entsprechend komplexer und entsprechend fehleranfälliger. Da sollte man auch immer sehr darauf achten, welche Kurven man verwendet bzw. konfiguriert sind. Nicht immer ist das möglich. In diesem Fällen nehme ich dann lieber das bewährte rsa2048.


    Darüberhinaus ist es aber eigentlich ziemlich egal. Die Gefahr, dass der Traffic durch eine 3rd Party live entschlüsselt wird, halte ich für sehr gering, egal welche Methode man verwendet. Die Gefahr lauert eigentlich woanders (kompromittierte Clients, Malware, Bugs in der Software). Man darf hier nicht zu sehr den Fokus verlieren. Man kann sich ewig mit dem Thema beschäftigen, welche Methode jetzt die beste ist, aber außerhalb der Forschung hat das nur bedingt Bedeutung, wenn ich z.B. gleichzeitig irgendwelche ranzige PHP Software laufen habe.

    Open-Xchange ist ja eine komplette Mail Lösung. Die wird so nie in einem Webhosting Tarif laufen können. Vielleicht höchstens noch der Webmail Teil, aber das dürfte ohne den Rest auch nicht wirklich sinnvoll sein.


    Diese ganzen "Apps" kommen wohl von Plesk. Das ist insgesamt sowieso eher eine Mogelpackung und sollte nicht produktiv eingesetzt werden. Gibt hier im Forum auch schon die ein oder andere gute Diskussion darüber.


    Was genau ist denn dein Ziel?

    Herzlichen Glückwünsch!

    Gerade mal geschaut. Meine erste Netcup Rechnung ist von 2007. Damals ein Webhosting Profi 500 Paket mit großzügigen 500 MB Speicherplatz. 8) Schon damals war das Preis/Leistungsverhältnis bei Netcup sehr gut im Vergleich zur Konkurrenz, weswegen ich mich damals für mein Webhosting für Netcup entschieden habe. Gab damals auch keine komischen Cent Beträge. 4 € / Monat. Punkt. Irgendwann bin ich dann von den Webhosting Paketen auf die Server gewechselt. Aus dem gleichen Grund. Gerade für private Projekte war Netcup für mich immer 1. Wahl und ist es eigentlich auch heute noch.

    ( außer die Zeit wo die Failover IP von Host A-> B wandert)

    Dauert das eigentlich immer noch so lange? Ich hatte das vor Jahren mal so gemacht. Aber die Failover IP Adresse zu wechseln dauerte immer mindestens >30 Sekunden. Da habe ich den Host schneller rebootet als dass die Failover IP endlich auf den neuen Server geroutet war. Ich hatte am Ende mit Failover IP mehr Downtime als ohne, weswegen ich das komplett habe sein lassen. Aber kann ja gut sein, dass es sich mittlerweile gebessert hat. Aber damals hatte mich das schon ziemlich genervt.

    Das gibt es soweit ich weiß sogar schon etwas länger. Ich wollte mal mein Monitoring/Inventory entsprechend anpassen um diese Informationen mit aufzunehmen, habe das dann aber doch verworfen, weil ich es in der Praxis dann doch nicht brauche. Mir hat nur die Idee gefallen, die "Bios Informationen" dahingehend zu nutzen.

    Was ich übrigens cool finde, dass man auf einem System selbst herausfinden kann, welches Netcup Produkt dahinter steckt:

    Code
    ansible -m setup -a filter="*bios*" my_host
    
    my_host | SUCCESS => {
        "ansible_facts": {
            "ansible_bios_date": "02/16/2022",
            "ansible_bios_vendor": "netcup",
            "ansible_bios_version": "RS 2000 G9"
        },
        "changed": false
    }

    In Fedora wurde die Netzwerk Konfiguration auch lange Zeit in /etc/sysconfig/network-scripts konfiguriert. Allerdings ist ja Fedora ja sowas wie die Upstream/Developer Version von CentOS/RHEL. Daher wird das früher oder später auch so in RHEL einfließen. Persönlich nutze ich aber auf beiden Varianten mittlerweile systemd-networkd. Das ist von der Konfiguration her deutlich angenehmer und funktioniert soweit auch recht gut. NetworkManager ist ja eher für den Desktop gedacht. Auf einem Server hat das meiner Meinung nach defnitiv nichts verloren :).

    Kann das nicht evtl. auch mit dem Host Cache zusammenhängen? War da nicht irgendwas bei VIRTIO? Da Benchmarks immer nur kurze Momentaufnahmen sind, würde ich gerade bei so extrem guten Werten fast darauf tippen.

    Ich würde da aber doch nochmal ein Fragezeichen dran setzen wollen. Mir ist es ehrlich gesagt nicht wirklich verständlich, warum jetzt auf einmal virtio schneller sein soll, zumal dann auch so nützliche Funktionen wie fstrim nicht mehr funktionieren (mit virtio-scsi allerdings schon). Also bevor jetzt hier groß migriert wird, würde ich das lieber nochmal genauer untersuchen. Die eingesetzten SSDs auf den Wirtsystemen sollten hier ja auch nicht wirklich von Belang sein, das liegt ja hautpsächlich an der Virtualisierung und der eingesetzten Software. Kommt mir alles sehr komisch vor.