Posts by frostschutz

    Ich nutze es nicht (für Linux-VPS) und habe auch nicht vor, das zu ändern. Solange es bootet, sehe ich da keinen Handlungsbedarf.


    Daß zuhause zwangsweise UEFI läuft, ist ja was anderes. Aber selbst da ist mein Bootmedium (für Linux) noch Hybrid angelegt (Grub 3x installiert, jeweils für BIOS/PC, UEFI, und UEFI Removable). Windows hat beim Update schon mal Booteinträge entfernt...

    Ist das Teil eines größeren Befehls mit einem falschen ' irgendwo?


    Das was ChatGPT moniert, würde zumindest bei MariaDB einfach nur NULL zurückliefern aber nicht deinen Syntaxfehler erzeugen.

    Die Meldung ist normal. Bei GPT wird ein Backup der Partitionstabelle ans Plattenende geschrieben. Machst du die Platte größer, ist das alte Backup an der falschen Stelle. Und fast jedes Partitionierungsprogramm korrigiert das dann von sich aus.


    Primäre vs. Logische Partitionen gibt es bei GPT auch nicht mehr. GPT hat üblicherweise Platz für 128 Partitionen. Wenn das nicht reicht, ist möglich davon abzuweichen, aber dann gibts das ein oder andere Programm, das sich beschwert. ;)


    Am Ende musst du neben der Partition auch das Dateisystem drauf vergrößern, kommt dann drauf an wie das angelegt ist (LVM & Co, oder direkt ext4, dann resize2fs).

    Habe ich in letzter Zeit auch häufiger (ipetecnologia, samcasino und andere). Der Verteiler ist aber auch schnell wieder dicht, sonst würde es nicht bei 5-10 Mails bleiben. Das würde endlos so weitergehen mit den Autorespondern. Wer sich noch an solche Mailinglisten/CC-Unfälle erinnern kann. Jeder antwortet und es geht immer wieder an die gleiche Liste / an alle...


    Es ist Spam. Ab in die Tonne damit.


    Anderes Beispiel https://www.mcseboard.de/topic…3%BCber-google-workspace/

    Du hast ja schon Glück wenn dir dein alter Provider nicht sofort die Web+Mail Inhalte löscht, sobald die Domain weggezogen ist.


    Der Domainumzug kommt normalerweise als letztes dran, wenn alles andere schon erledigt ist.


    Aber ja es könnte klappen wenn der alte Provider sich noch weiter für diese Domain zuständig fühlt (oder wenn diese als externe Domain dort eingetragen werden kann). Aber oft ist es eben so, daß zusammen mit der Domain auch die ganzen Konfigurationen getilgt werden und erstmal weg sind.

    Ich kenne das bisher nicht - weder von netcup noch von anderen Providern.

    Andere machen Video-Ident... das ist viel schlimmer. Zum Affen machen vor laufender Kamera... halten Sie den Perso an die Stirn, halten Sie hierhin, halten Sie dorthin, drehen Sie, winken Sie, …was zum. Nebenbei Wohnungsbesichtigung da der Mitarbeiter auf der anderen Seite frei zwischen Front- und Hauptkamera umschalten kann.


    Und das machen tausende Menschen jeden Tag... für ne olle SIM-Karte...


    Muss man nicht mögen aber "RAF Lösegeldforderung" ist doch etwas überzogen.



    Die Fehlermeldung kommt im Forum quasi nicht vor, entweder du hast Glück oder du bist ein Extremfall. Wie groß sind die Cookies denn? Irgendwann ist halt Schluss. Cookies werden bei jedem Request mitgeschickt (nicht nur dort wo sie tatsächlich gebraucht werden), wenn man es hier allzu sehr übertreibt, hat man auch beim eigenen Server Probleme.

    So ich hab das Problem in der auth.1 log Datei entdeckt, dort werden zahlreiche Anmeldeversuche auf verschiedenen Ports mit verschiedenen Usern und PWs aufgezeichnet. Kann mir jemand helfen, wie ich mich jetzt gegen diese Attacken schützen kann, weil es unters. IPs sind kann ich ja nicht per IP bannen.

    Die Anmeldeversuche sind leider normal, auch bei geändertem SSH-Port. Da arbeiten sich ganze Botnetze daran ab...


    Man kann sshd nur noch über Wireguard laufen lassen, oder Port Knocking einrichten, oder das Log einfach ausschalten.


    Mit Wireguard überlebt eine SSH-Verbindung auch mal einen kurzen Reconnect des DSL-Routers. Man kann damit also auch kleinere Probleme im eigenen Netzwerk umgehen. Einen Versuch ist es vielleicht wert.

    Falsches Charset in der Datenbank, falsches Charset in der Datenbank-Verbindung, irgendwo ein veraltetes mysqldump im Einsatz, ... es gibt viele Möglichkeiten. Hast du denn mal selber in den Dump geschaut ob die Umlaute dort überhaupt richtig stehen? Dann sollte sich das auch importieren lassen... lustig wirds wenn UTF-8 als Latin1 gespeichert wurde. Eine PHP-Anwendung kann auch nochmal ein eigenes Charset-Setting haben, falls das neu installiert und nicht übernommen wurde. Das muss dann auch wieder stimmen.


    Musst also letztlich schauen, wie stehts in der alten Datenbank, wie stehts im Export, in der neuen Datenbank nach dem Import, ... also herausfinden an welchem Punkt der Umlaut flöten geht.

    Denke es wird ziemlich aneinander vorbei geredet.


    Beim vorher genannten rsync-Ansatz (und ähnliche Methoden) geht dd nicht. dd kann von sich kein Resume oder Tracking von Änderungen (man kanns basteln, mit LVM Snapshot, Copy-on-Write Overlays, aber... Aufwand).


    Beim dd-Ansatz machst du also die gesamte Übertragung in einem Schritt offline und so lange wie das dauert, so lange dauert es dann eben. Wenn dir das lieber bzw. sicherer ist, dann ist das auch vollkommen in Ordnung. Da brauchen wir uns aber auch nicht den Mund fusselig reden zu Downtime und Optimierungsansätzen.


    Deine Einwände mit Datenbank-Konsistenz, 2 Instanzen & Co. — das ist klar, diese Probleme hast du bei jeder anderen Anwendung doch auch, nicht nur bei Datenbanken. Aber es ist kein Problem, solange — der Zielserver die ganze Zeit nur im Rescue steht und brav Daten empfängt.


    Erst im letzten Schritt geht der Quellserver ins Rescue, stellt die erforderliche Konsistenz her (Übertragung der letzten Änderungen von Rescue zu Rescue), und erst dann startet der Zielserver, mit den übertragenen, konsistenten Daten.


    Klappt alles mit rsync ohne Probleme, vorausgesetzt man hat ein Dateisystem mit ordentlichen Timestamps. Und nicht FAT32 mit 2-Sekunden-Taktung. Ohne Timestamps weiß rsync nicht, was nochmal zu kopieren ist und was nicht…


    Die Konsistenz spielt erst im letzten Schritt eine Rolle.

    Da es sich um einen Dienst handelt, der auf eine Datenbank aufsetzt lässt sich das nicht im Livebetrieb erledigen, die muss dafür aus.

    Du kannst alles im Livebetrieb mit rsync kopieren - du darfst es dann nur nicht verwenden. Also kopiert man im Livebetrieb dreimal mit rsync, anschließend der Reboot ins Rescuesystem. Im Rescuesystem kopiert rsync dann nur noch die wenigen Änderungen, die zwischen dem letzten Live-rsync und Reboot passiert sind - und nur das ist dann die Downtime. Meistens ist das akzeptabel...

    Remote DB ist eben so. Latenz gilt für jedes Query einzeln, bei Seitenaufrufen mit vielen Queries summiert sich das dementsprechend. Obendrauf kommt dann noch die Bandbreite, die jedes Query benötigt. Hier wird oft zuviel abgefragt (SELECT * ohne Limit) was dann tatsächlich gar nicht benötigt wurde. Lokal fällt das oft nicht weiter auf, Remote tut es sehr schnell ziemlich weh. Da hast du dir mit mehreren Servern dann keine zusätzliche Performanz geschaffen, sondern nur einen schönen Flaschenhals gebaut.


    Wenn deine Anwendung nicht speziell darauf optimiert worden ist, bist du mit der Remote DB auf dem Holzweg.