Beiträge von mainziman

    Warum sollte eine Bankwebsite mit normalen Port 80 HTTP funktionieren?

    Das würde mir Kopfschmerzen bereiten!

    Oder versteh ich da was falsch?

    Ja das haste jetzt falsch verstanden, ich bezog es allgemein, nicht auf Bankwebsites;


    der Grund: so lange alles problemlos funktioniert, dann gibt es auch kein Problem,

    sollte aber z.B. der OCSP nicht erreichbar sein¹, dann darf

    eine Banking Site keinesfalls funktionieren, hingegen z.B. das Forum hier aber schon;

    und OCSPStapling hier als Lsg. zu präsentieren macht noch mehr Kopfweh;


    ¹ ob das jetzt ein Problem im DNS od. bei der CA selbst ist, ist dabei unerheblich;

    Bei den Banken gibt es ganz andere Problembaustellen, die mir als Kunde regelmäßig Kopfschmerzen bereiten.

    welche wären das?


    wobei mir bereitet ehrlich gesagt so richtig Migräne, nur noch mit SSL zu verschlüsseln;

    und kein normales HTTP (Port 80) mehr zu verwenden;

    DerRené im Prinzip hast Du ja recht, ich spare mir eben das "Monitoring",

    lasse mich erinnern wenn es denn wieder mal Zeit ist die Zertifikate upzudaten, und sehe dann direkt ob die korrekt installiert wurden;

    f. Dinge die gerade mal 4 mal im Jahr passieren einen cronjob zu machen ist f. mich dann doch etwas seltsam;;)


    ich nutze auf einem vServer LE und am anderen Buypass, welche gleich nur 2 mal Jahr ablaufen;

    aber ohne verlässliche Automatismen käme man doch zu nix anderem mehr als manuell ständig und überall Updates zu triggern / zu kontrollieren.

    Du sagst es, es gibt halt keine verlässlichen Automatismen; :/

    weil sich darauf zu verlassen, dass einem da nix untergeschoben wird, was dann das Setup kaputt macht, und man dann mehr Ärger am Hals hat,

    bringt ja auch nix; ich wills vorher wissen was upgedatet wird ..., und nicht hintenach die Erkenntnis haben, dass es besser nicht upgedated werden hätte sollen;

    und das hintenach Kontrollieren der Logfiles kann auch ganz schön aufwendig sein ...


    kommt sich wahrscheinlich auf das Selbe 'raus, ob man eine Nachtschicht einlegt od. am nächsten Tag die Komplikationen der automatischen Updates korrigiert; und im worst case evtl. längere Ausfallzeiten hat ...

    Wenn ich mir allein nur vorstelle, auf all meinen Servern die LE Zertifikate manuell anzustoßen, bekomme ich Zuckungen.

    wieso nicht auch das Erstellen der Zertifikate zentralisieren?


    eigentlich unglaublich, dass Zertifikatsaustausch noch immer vergessen/händisch gemacht wird und wer nicht aller (jahrelang) Warnhinweise ignoriert

    Beim Vorübersurfen die Verbrecher immer wieder mal notiert: Liste wird länger und länger ...

    mal etwas halblang; die LE Geschichte ist strenggenommen nur ein Experiment;

    denn vertrauen kann man eigentlich nur OV Zertifikaten, und es wäre absolut kein Problem derartiges auch f. OV Zertifikate zu implementieren;

    aber dagegen sind die CAs die damit Unmengen an Geld scheffeln;


    oder würdest Du Deiner Bank vertrauen, wenn da bei https://banking.deinebank.deinland/  irgend ein DV Zert. zum Vorschein käme?

    Und hat man sowas nicht sowieso im Monitoring?

    ja im certwatch-Mail ;)


    cltrmx ./cr-all.sh und ./upd.sh reicht doch

    sprich des alle paar Monate per cronjob zu machen und dann irgendwelche Logs durchschauen zu müssen ob es denn überhaupt fehlerfrei geklappt hat,

    is ma einfach zu kindisch, wenn ich es so direkt sehen kann;)

    (ich bin auch ein Gegner irgendwas unbeaufsichtigt automatisiert updaten zu lassen)

    des is ja spannend, es gibt ja des certwatch, des einem ein Mail schickt, wenn die Zertifikate x Tage vor dem Ablauf sind;

    beginnen tut des bei 29 Tage vor Ablauf;

    dass ma des in /etc/sysconfig/httpd einstellen kann,

    auf des muss ma ja mal kommen, weil Zertifikate ja auch f. posfix, ... verwendet werden;

    hab es jetzt auf 14 Tage eingestellt, Zeit genug die Let's Encrypt Dinger neu zu erstellen;


    https://www.seei.biz/adjust-certwatch-warning-period/

    werden vier Platten genannt, ist das immer[*] die RAID10-Bruttokapazität

    weiß das Deine Glaskugel?=O

    ich würde meinen dass

    die Angabe 4 x 120 GB SAS, RAID10 einfach 4 mal 120 GB SAS, RAID10 heißt, also 4 Platten und nicht eine einzige Platte;)


    m_ueberall Du brauchst nicht "Brutto" od. "Netto" hinschreiben, es genügt einfach das wie bereits oben beschrieben auszubessern;

    Dein 2ter Punkt ist Off-Topic, sage ja, dass es irrelevant ist, mit welchen SAS od. SSDs das RAID10 tatsächlich am Host aufgebaut ist;


    darum sagte ich ja, ich hätte gerne die Variante mit 4 mal 120 GB SAS sprich 4 Devices im vServer;

    m_ueberall ich denke Du hast da jetzt was falsch verstanden; verkauft werden 240 GByte nicht 4 mal 120 GByte was 480 GByte wären;

    wenn Du Dir die Auflistung der einzelnen Angebote ansiehst, würde die Angabe 4 x 120 GB suggerieren, Du bekämst 4 Platten zu je 120 GB,

    welche Du im vServer (hier ein RS) z.B. über die Linux devices /dev/sda, /dev/sdb, /dev/sdc, /dev/sdd ansprechen kannst ...

    wie das RAID10 am Host organisiert ist, ist dem vServer ja egal;


    wenn Du Dir z.B. den RS 1000 SAS G8 ansiehst, steht hier direkt 320 GB SAS, welche SAS-Platten hier zum Einsatz kommen steht nicht, und ist auch egal;


    wobei ich kann mir nicht vorstellen, dass die SSD-Variante echt aus 4 'USB-Sticks' zu je 15 GB besteht, kann ich mir so gar nicht vorstellen;

    (man kauft doch keine 15 GByte kleinen SSDs, oder?)

    joas ist bei Dir der 2te Hop wie auch bei peterbo ebenfalls IPv6 2a00:11c0:47:3::32 bzw. bei IPv4 müsste es IP 144.208.211.10 sein; Danke Sascha98


    nur um es logischer zu sehen, mal die Fragen: wo steht der Host mit dieser IP(v6)?

    muss hier sämtlicher Traffic in diese "Richtung" durch?

    hat das "Phänomen" wovon einige hier schreiben, einfach mit dem zu tun,

    dass diese Kiste und/oder die angebundene Leitung hier an der Leistungsgrenze sind?


    kann da hier [Anexia] Theo V. was dazu sagen?

    Sieht auf allen Servern ähnlich aus. Aber momentan gibt es ja auch kein Problem im Netzwerk, daher sind die Pingzeiten wunderbar.

    jetzt wirds schwierig, weiß ja nicht wann es diese Probleme geben wird;

    eigentlich wollt ich darauf hinaus, das Problem evtl. einzugrenzen;

    genau dann wenn der traceroute von netcup weg Probleme macht, und ein

    ein ping6 2a00:11c0:47:3::32

    dies ebenso anzeigt, dann muss doch der selbe ping6 auf einem anderen vServer bei netcup,

    welcher vlt. sogar in einem anderen IPv4-Segment 'hängt' auch so sein, oder?

    wenn nicht, würd mich das jetzt stark wundern;

    hast eine PN wie Du z.B. von meinem vServer querprüfen kannst;

    Ich bin mir nicht sicher, auf was Du genau hinaus möchtest.

    kannst auf den vServer gehen von dem Du den IPv6-Trace weg von netcup gemacht hast,

    dort die IPv6 2a00:11c0:47:3::32 anpingen und einen Ausschnitt vom Ergebnis hier posten

    und als Kontrolle einen traceroute mit IPv6 von netcup weg machen?

    peterbo in der Tat, aber was mir dennoch seltsam erscheint bei IPv6 ...


    die Richtung von netcup weg hackt bei Dir da bereits beim 2ten Hop,

    welchen ich ohne Probleme pingen kann ...

    bei der Richtung zu netcup, hackt eigentlich nur der letzte Hop - Dein vServer?