Posts by Steini

    Das Thema Spam mit Filterung die NACH der Annahme stattfindet anzugehen ist der falsche Weg. Insofern lohnt es sich auch nicht darüber nachzudenken irgendwelche Filter zu trainieren. 99% des Spams wird man los, indem man den Müll erst gar nicht annimmt - Stichwort: PostScreen und DNSBL.

    Korrekt, deshalb ist rspamd auch so designed, dass als Spam erkannte Mails abgewiesen werden. Deshalb lohnt sich hier ausnahmsweise auch das trainieren der Filter ;)

    Habe das mit einem Linux und Windows VMs gelöst. Braucht etwas länger zum starten, aber wenn man von früher gewohnt ist, dass erst der PC und dann die Kaffeemaschine eingeschaltet wird gehts ;-)

    Die VMs lassen sich super verwalten/zurücksetzen. 3D Spiele oder irgendwas anderes, was den Rechner mal auslasten würde werden da natürlich nicht gemacht...

    Habe keine Hardcore-Performanceansprüche und benutze Apache der Flexibilität wegen. Bei statischen Seiten (wer hat das schon?) ist nginx klar im Vorteil. Ansonsten hängt die Performance mehr von php-fpm ab als vom Webserver.


    Ich finds immer toll, wenn Leute lahme Krücken wie Wordpress einsetzen und dann versuchen die Performance durch ewiges Optimieren vom Webserver wieder rauszuholen.


    Nimm das, worauf du Lust hast. Wenn du etwas lernen willst, nimm was neues. Wenn es eine produktive Seite ist, nimm das mit dem du dich besser auskennst. In dem Auslastungsbereich in dem ich dich, bzw. deine Projekte vermute gibt es kein Argument, das einen Umstieg rechtfertigen würde. Willst du das letzte bisschen Performance rauskitzeln, wirst du beides nehmen müssen und für deine spezielle Anwendung Benchmarken. Aber das wird sich nicht lohnen und ist nur Akademischer Natur.


    Wenn du am überlegen bist, was du für dein nächstes Projekt nehmen willst, dann sind die Entscheidungen für PHP/JS/Python/etc.. wichtiger, als der Webserver.

    Zwar etwas Offtopic, aber besser als den Stuhl fand ich im Büro die Anschaffung höhenverstellbarer Tische. Mein Rücken dankt mir das mehr als irgendein Hightechstuhl (wobei ich nicht abstreiten will, dass die auch ihre Daseinsberechtigung haben).

    Da jeder Körper anders ist empfehle ich hier sehr ein Probesitzen und keine "Blindbestellung" im Internet.

    Boah, das Forum regt mich auf (könnte an der Uhrzeit liegen o_O). Jetzt habe ichs doch noch kapiert, aber kann nicht mehr bearbeiten. Sry..


    Ah, ich verstehe schon. Du erlaubst nur das hochladen per SFTP, weil du angst hast, dass dein SSH Keyfile in falsche Hände gerät und man damit unwesen auf deinem Backupserver treibt. Deshalb so ein Setup: https://www.linode.com/docs/to…ils-on-debian-and-ubuntu/

    Weil du natürlich nur Schreibrechte vergibst, musst du auf dem Server einen Task ausführen um das Backup zu verkleinern.

    Ich würde das trotzdem mit einem lokalen Borgbackup machen und das dann per SFTP auf den Server kopieren. In der Praxis läuft mein Backup nachts nach 3 und um kurz nach 5 wird auf dem Backupserver bereinigt. Das geht nur, weil ich mir relativ sicher bin, dass bis dahin das Backup durch ist... Sollte ich aber vielleicht mal überdenken, und incron schreint was ganz nettes zu sein.

    Puh, mit PHP kann ich nicht mehr weiterhelfen. Der Fehler tritt also auf, wenn die Logzeile geschrieben werden soll? Und wenn du das auskommentierst und nichts loggst, geht alles (also die Kommunikation mit der Datenbank funktioniert sonst)?

    In jedem Fall sollte es aber einen Eintrag in der error.log geben!

    Es könnte höchstens sein, dass YOURLS soweit läuft, dass es Fehlermeldungen unterdrückt(?)


    Benutzt du denn jetzt apache oder nginx (vielleicht habe ich das schon wieder übersehen, aber einmal redest du von den Apache logfiles und htaccess, einmal von nginx-proxy funktion?)?

    Bei Apache könntest du mit folgenden Einträgen in der htaccess die Ausgabefreudigkeit bei Fehlermeldungen etwas erhöhen, bzw. den Pfad zum error.log anpassen:


    EDIT:

    Wenn ich mir "YOURLS -> Troubleshooting first steps" anschaue, werden die Fehlermeldungen wohl tatsächlich unterdrückt:


    Wäre durchaus mal eine Option, das auszuprobieren ;-)

    Im Normalfall ist bei Domains eine TTL von 86400 (1 Tag) eingestellt. Das bedeutet, die Domain darf solange zwischengespeichert werden, muss aber nicht. Die DNS Server der Netzbetreiber cachen aber oftmals nicht so lange, insbesondere nicht bei Domains, die nicht so häufig abgefragt werden (google.de wird vermutlich bis zur Maximalzeit gecached, weil das mehrmals pro Sekunde abgefragt wird, deine Domain vermutlich nicht). Deine Fritzbox ist aber nicht wirklich ausgelastet mit dem DNS server und speichert alles bis zur Maximalzeit.


    Für Domainbetreiber, die hin und wieder mal DNS-Einstellungen ändern ist das DNS-Cachingverhalten der Fritzbox halt kacke. (Auch für deine User, die vermutlich zur Hälfte Fritzboxen einsetzen).


    Eine Möglichkeit, den DNS-cache zu leeren ist: die aktuellen Einstellungen sichern (System -> Sicherung) und neu einspielen (System -> Wiederherstellen)

    Ansonsten ist da wohl der Support zuständig.

    Wenn du alles gleich eingestellt hast und es nicht funktioniert, solltest du den Support anschreiben.



    Du benutzt also beidesmal nginx und hast dort

    Code
    1. location / { try_files $uri $uri/ /yourls-loader.php$is_args$args; }

    eingetragen?


    Error 500 kann halt so ziemlich alles sein. Von Dateirechten (überprüft?), über ein fehlerhaftes Script (hast du wohl ausgeschlossen), hin zu backend Problemen (hier kann nur der Support helfen). Du kannst versuchen in der Konsole von Chrome (F12) Hinweise zu finden, wann der Aufruf fehlschlägt. Geht denn eine beliebiges anderes PHP Script auf der Domain? Es reicht eine phpinfo Seite:

    PHP
    1. <?php phpinfo(); ?>

    Wenn ja, kannst du im yourls script ein "die( 'it works' );" am Anfang einfügen und dann immer weiter nach unten verschieben, bis der Fehler auftritt 8) Weitere Debugmöglichkeiten fallen mir beim Webhosting nicht ein :/

    Ich komme leider nicht darauf, wo und wie ich die IP Adressen von Host und vServer umstellen muss, damit ich zum Beispiel unsere WordPress-Webseite nun lokal erreichen kann.

    Dem Server gibst du eine neue IP-Adresse aus eurem Netz. Eurem lokalen DNS-Server sagst du dann, dass deine Domain die IP von dem lokalen Server hat (bzw. umgekehrt, die lokale Server IP hat deine Domain als Hostnamen). Dann gehen Anfragen an deine Domain an den lokalen Server. Ob das so eine gute Idee ist will ich mir gerade aber nicht überlegen :/ Ist ja nur für den Notfall gedacht oder soll das parallel laufen?

    Alternativ musst du in allen Installationen den Hostnamen auf was lokales anpassen

    Und die Wahrscheinlichkeit, dass das in einem 24er-Verbund passiert ist 12x so hoch, wie bei einem 2er-Verbund.

    Das mit der Wahrscheinlichkeitstheorie überarbeiten wir aber nochmal ;-) Am Ende geht es ja um die Wahrscheinlichkeit der nicht-Verfügbarkeit, da sieht die Rechnung etwas anders aus. Insbesondere müssen die Festplatten ja gleichzeitig ausfallen, bzw. bevor die erste Defekte ausgetauscht und synchronisiert wurde. Zumindest wenn man davon ausgeht, dass die Ausfallwahrscheinlichkeit für jede Festplatte gleich groß ist und nicht korreliert (weil z.B. durch Überhitzung gleich 4 Festplatten nebeneinander sterben). Ich gehe bei Netcup aber davon aus, dass durch geeignete Überwachung ein langsames Sterben aufgrund von Alterung o.ä. vor dem eigentlichen Ausfall bemerkt wird und die entsprechende Platte getauscht. Ziemlich sicher werden hier hot-spares eingesetzt, sodass der Umtausch automatisch vorgenommen wird.

    Ich mag jetzt nicht den größten Erfahrungsschatz an Serverfestplatten haben, aber ich habe bisher noch nie erlebt, dass im "normalen" Betrieb eine Festplatte ohne Vorwarnung den Dienst einstellt. Sowas tritt eigentlich nur durch externe Faktoren auf wie ein defektes Netzteil mit ungünstiger Spannungsversorgung, Feuer, Wasser,...

    Ein externes Backup braucht man immer! Raid ist kein Backup und als Datensicherung ungeeignet, ein Raid sorgt nur für Ausfallsicherheit (hast du ja auch richtig geschrieben). Und hier bist du mit 24 Platten gegenüber 2 im Vorteil: Stirbt eine Platte und muss getauscht werden, so wirst du das als Endkunde beim 24er Verbund vermutlich garnicht mitbekommen. Beim 2er Verbund fällt das sicher an der Performance auf, bis die neue Platte vollständig eingebunden ist. (Willst du mehr Ausfallsicherheit, nimm einen zweiten Server)

    Problematischer ist der Ausfall eines Raidcontrollers. Das ist in der Vergangenheit auch durchaus schon vorgekommen[1], aber ich hoffe doch dass sich hier in den 6 Jahren was getan hat ;-) Siehe dazu auch den zweiten Beitrag von Felix aus 2013[2]. Verschlechtert hat sich der Zustand seit dem sicher nicht (mittlerweile halt Raid10 statt 50).


    [1] https://forum.netcup.de/admini…erherstellung-eines-raid/

    [2] https://forum.netcup.de/netcup…einer-festplatte-im-raid/

    Glaube mir, bei mehreren 10.000 Requests siehst du das im RAM und in der CPU Util ob da ein nginx oder Apache am Werk ist.

    Nginx spawnt weniger Prozesse und hat dadurch einen geringeren Memory Footprint.

    Ist das noch so? Ich habe keine wirklich ausgelastete Seite und kann das schwer beurteilen. Ich liebe aber die Flexibilität von Apache[*] und habe kaum statische Seiten (und die paar bringen den Apache/Server nicht an die Grenzen). Was den Server bei mir auslastet (CPU und RAM) sind Datenbank und PHP. Als ich letztes mal getestet habe war nginx nur bei statischen Seiten schneller und die PHP Performance (PHP-FPM) und Datenbank war Webserver unabhängig der größte Faktor. Ich weiß, dass bei Admins der eingesetzte Webserver schon Züge einer Religion hat, die bis zum allerletzten Verteidigt werden muss, aber mal ehrlich: Wie groß ist der Einfluss des Webservers heute überhaupt noch? Gibts da ein paar neutrale Meinungen (Daten) von Leuten mit hoher Auslastung? Hätte da gerne (einfach interessehalber) mal ein paar Meinungen ;-)


    [*] Natürlich muss man darauf achten, "AllowOverride None", zu haben und die benötigten Verzeichnisse per "AllowOverrideList" explizit anzugeben.

    Was da passiert ist kann ich dir nicht sagen, von Wordpress habe ich auch keine Ahnung. Aber die Sodium Crypto Lib ist ab PHP7.2 die empfohlene Bibliothek für Verschlüsselung:

    Quote

    The Sodium cryptography library was integrated with the PHP core in PHP 7.2 after an unanimous 37-0 vote in favor. It's the recommended cryptography library for most modern software developers.

    Eine kurze Internetrecherche hat ergeben, dass das wohl in Wordpress integriert wurde:

    https://core.trac.wordpress.org/ticket/45806

    Git pull/commit/push in allen Repositories in Unterordnern parallel ausführen (ist natürlich nicht auf Git beschränkt, aber gerade zum Pullen benutze ich das gerne ;) )

    Code
    1. ls | sed 's/\/.git//' | xargs -P10 -I{} git -C {} pull
    2. ls | sed 's/\/.git//' | xargs -P10 -I{} git -C {} commit -am "2019-08 blabla"
    3. ls | sed 's/\/.git//' | xargs -P10 -I{} git -C {} push

    Sollte so eigentlich gehen. 404 Bedeutet "Datei nicht gefunden". Häufigste Ursache dafür ist ein Schreibfehler beim Seitenaufruf (Groß-/Kleinschreibung?). Für alles weitere bräuchte man eine Glaskugel ;)


    [edit]

    misst, man kann Beiträge auch garnicht mehr löschen :/ Habe jetzt erst gesehen, dass du ja einen neuen Thread für das Problem aufgemacht hast und da schon weiter bist...