Ich habe gerade eine neue Art dieser E-Mails bekommen:
Beiträge von txxt
-
-
Ich habe heute auch eine mail für eine Domain bekommen, die auf einen netcup rs verweist. Bei mir war die Adresse auch info@ und ich nutze ebenfalls Lets encrypt.
-
Bei mir sieht es schon länger so extrem aus:
Bei mir sieht es im Normalzustand auch relativ ähnlich aus (ein Grund warum ich zu einem Server mit SSD wechseln möchte):
pasted-from-clipboard.pngDurchschnittlich nur 1% iowait, aber bei jeder Last bremst die HDD aus.
Ich habe jetzt auch mal die Latenz zum Logging hinzugefügt, um genauere Informationen zu sammeln.
Hat dein Server auch noch eine HDD?
Der Raid rebuild sah übrigens so aus und hat den Server komplett blockiert:
pasted-from-clipboard.png -
Ich habe ein Ticket (NCSUP-16205), wo ich seit letzte Woche Mittwoch auf Rückmeldung warte.
(Server hat stellenweise so hohe IO-Latenz, das er nicht mehr reagiert - Migration angefragt)
Vor ein paar Wochen hatte ich genau dieses Problem. Für ca. 2 Tage war die io Latenz so hoch, dass selbst ein ls teilweise Sekunden dauerte und alle Services hingen. Der support hat nach einem Tag nach einer Erklärung meiner Benchmarks gefragt und gesagt, dass die Anfrage weitergeleitet wird (Zu dieser Zeit war die Geschwindigkeit aber schon wieder normal). Dann kam die Erklärung, dass der Server eine Defekte HDD hatte und einen Raid rebuild gemacht hat.
Eine Informations-Email wäre natürlich super gewesen, aber der support hat relativ schnell geantwortet obwohl ich kein besonderes Service Level habe.
-
Debian stable auf servern und debian testing (mit KDE) auf Notebook/PC.
-
Ich habe heute eine Antwort bekommen, laut der im Laufe dieser Woche eine nachhaltige Lösung implementiert wird.
-
Ich habe gerade ein Supportticket zum Thema erstellt und werde mich hier melden, wenn ich eine Antwort bekommen habe.
-
Das meine ich ja. Wenn da außer mir noch jemand zugreifen kann, ist das erste Problem bereits da.
Ein anderer guter Grund ist Software wie mongodb (zumindest vor ca. einem Jahr), die mit Standardpasswort oder ohne Passwort automatisch nach der Installation startet. Ohne Firewall wären solche Dienste für jeden Angreifer offen, bevor die Einstellungen geändert werden konnten.
-
Gut, dass das nicht an meinem Server liegt Ich werde dann erstmal auf einen anderen nameserver wechseln.
Hier ist eine Anfrage die 10 Sekunden gedauert hat:Codetime dig +short example.com @46.38.225.230 93.184.216.34 real 0m10.041s user 0m0.013s sys 0m0.004s
Das liegt aber daran, dass dig laut Anleitung ein timeout von 5s hat und es dreimal versucht. Also ist einfach nur die dritte Anfrage erfolgreich.
-
Ich habe eben festgestellt, dass die netcup nameserver (die ersten drei von https://www.netcup-wiki.de/wiki/Nameserver) teilweise 5 oder 10 Sekunden Wartezeiten vor einer Antwort haben.
Beispiel:
time dig +short example.com @46.38.225.230
....
real 0m5.024s
user 0m0.018s
sys 0m0.005s
Die Verzögerung ist immer exakt 5s oder 10s oder ein timeout und tritt ca. jede 5. bis 10. Anfrage auf.
Wenn ich mit z.B. googles nameserver teste gibt es keine Verzögerungen.
Zuerst habe ich rate-limiting vermutet, aber selbst wenn ich ein paar Minuten warte tritt die Verzögerung wieder auf.
Ich habe debian bullyseye mit statischer netzwerk konfiguration, wie im Wiki empfohlen.
Kann das jemand reproduzieren? -
Ich nutze acme.sh mit der netcup dns challenge und das läuft seit über einem Jahr problemlos.
-
Was Hotmail/Outlook angeht: SPF und DKIM hilft den eigenen Score dort zu heben. In dem Zug kann man auch gleich DMARC mitnehmen.
Ich hatte auch noch keine Zustellprobleme bei Outlook und nutze SPF, DKIM und DMARC.
Aufgrund der uceprotect Listung konnte ich ebenfalls keine Zustellprobleme feststellen.
-
Eben auch festgestellt...
Wie lasst ihr euch über ein Blacklisting informieren?
Ich habe ein ähnliches Skript wie SCD im cron. Im Anhang ist meine Liste mit ein paar anderen Blacklists. Hoffentlich kümmert sich netcup darum, auch wenn diese Liste unseriös aussieht.
-
lazy loading für Bilder ist gut, das Zusammenfassen von js/css in jeweils eine Datei bietet hier bei netcup keine wesentlichen Vorteile mehr in Zeiten von HTTP/2. Hier kann es sogar nachteilig sein, weil die größere Gesamtdatei nach jeder Änderung einer einzelnen Datei erstens neu erzeugt und zweitens von jedem Besucher wieder neu heruntergeladen werden muss, während ansonsten nur die geänderte, kleinere Datei neu geladen werden muss. Allerdings ist es nach wie vor sinnvoll, CSS und JS zu "komprimieren" (minify).
Da ich auch HTTP2 nutze habe ich mal versucht das zu messen. Mit der Geschwindigkeitsmessfunktion von Firefox und bin auf ca. 50ms schneller bei der kombinierten Version gekommen (ca. 15 Anfragen weniger). Da der Unterschied aber sehr klein ist gebe ich dir recht, dass es wichtiger ist, dass die Dateien zwischengespeichert werden können.
-
Zu den Plugins kann ich empfehlen so wenige, wie möglich zu installieren. Das Plugin autoptimize ist super um die Geschwindigkeit zu verbessern, da es gleichzeitig js/css in jeweils eine Datei kombiniert und lazy loading für Bilder enthält.
-
Ich benutze aktuell Carnet (nextcloud app) für Notizen. Das funktioniert soweit ich weiß ohne spezielle PHP-extensions und hat einen Desktop Client und eine App. Aber die UI ist nicht perfekt und Notizen können nicht verlinkt werden.
-
Ich habe auch zuletzt mit rsync auf einen besseren Server geupgradet. Nach dem verschieben daran denken die IP Adressen anzupassen.
-
Wie macht ihr es fürs gaming? Midrange PC alle 1-2 Jahre neu oder High-END dafür nur alle 5-6 Jahre.
In Geld1500-2000€ oder 3500-4000€ ausgeben.
Ich habe vor 6 Jahren einen für ~1300€ gekauft Vor kurzem habe ich die GPU zu einer Vega 56 geupgradet und es laufen auf 1080p alle Spiele super. Ich würde aber eher öfter upgraden als einen PC für mehr als 1500€ zu kaufen.
-
Super, bei mir hat alles geklappt und nur 10min downtime!