Beiträge von backdoor

    [...]

    Direkte Hilfe gab es hier schon öfter im Forum! Sollte sich wider Erwarten niemand finden, installiere doch einfach ein neues Wordpress und lege deine Seiten mit den Inhalten wieder an, wobei du dann jeweils Wordpress, Theme und Plugins möglichst aktuell hältst.

    Ich fühle mich immer unwohl beim Säubern. Dazu, eine Neuinstallation behebt ganz einfach, dass Übersehenes verbleiben könnte.


    Edit: Auch da ich mich mit Wordpress nicht auskenne, eine Websuche nach "Wordpress hardening" sollte dir viele Antworten dazu geben, wie dein Wordpress sicherer werden kann.

    mit /etc/network/interfaces.d/ ist das nicht möglich?

    Nein, alleine wäre mir unbekannt. Es gibt up und down Regeln für interfaces, mit denen Shell-Befehle ausgeführt werden können, das ist aber nur ein Weg (z.B. Ersatz zu Systemd Services [Systemstart erklärt]) um eine Verbindung aufzubauen/zu starten bzw. zu stoppen. Du brauchst noch die Verbindung selbst, wofür Sicherheitsvorkehrungen nötig sind, wie von anderen schon gesagt möglich mit VPN oder SSH.


    Schau für VPNs vielleicht auch in diese Projekte:

    Im Allgemeinen gehe ich auch den Weg von Virtualisierung und Container, aber das erfordert virtuelle Netzwerke, NAT, Tunnel, Proxies oder aufgeschaltete öffentliche IP-Adressen. Aber die direkte Anbindung von Diensten an das öffentliche Netz vereinfacht oft deren Einrichtung. Dazu bilden verschiedene Server die einfachste Trennung von Diensten. Und schließlich, (anstatt Limits auszureizen) extra Ressourcen zu haben, die dann vielleicht auch von anderen getragen werden können (z.B. durch einen Verein), macht zusätzliche Server weiter attraktiv.


    Spätestens wenn wegen der Preiseffizienz alle Dienste auf einem großen Server liegen und dieser Server neu installiert werden soll, stellt sich die Frage: Wohin mit den Daten und Diensten? Nach Hause migrieren? Dienste offline nehmen? Dann werden, wenn nicht gleich ein Cluster, dann Backup-Storage, Backup-Server nötig, man will die Einrichtung vielleicht automatisieren und spielt bis zu einem gewissen Grad auch im eigenen Setup und redundant zu Netcup selbst Server- oder Cloud-Service-Provider, dabei mit beliebiger Komplexität.

    Netcup hat professionelle Leute, die unser eigenes Tun behüten, bereits tolle und preiswerte Lösungen rund um vServer anbieten, sich schon um aktuelle Images, Snapshotfähigkeit, Treiber, Updates und Patches, Probleme, Redundanz und Migration kümmern, auch spontan im Falle von Notwendigkeit, Ausfällen oder Engpässen.


    Dazu kann es auch sehr konkrete Gründe haben. Als Praxisbeispiel, weil es bei mir aktuell ist: Wo HomeAssistant auch schon über WireGuard von außen erreichbar in einem Container auf eigener Hardware lief, die länger schon nicht mehr über HomeAssistant hinaus benutzt wird, wären die Stromkosten höher als die Kosten eines kleinen VPS bei Netcup, zusätzlich wird über einen Wechsel die potente Hardware zuhause frei. Wieso also nicht auf einen VPS?

    Surprise, surprise! Ihr habt es euch oft gewünscht und hier ist er: Der netcup Cyber Monday. Der Black Friday ist zwar vorbei, aber am Montag geht es mit den Aktionen weiter. Seid ihr bereit? Alle Infos 😉👉 https://anx.io/ZAfh7
    Seid ihr es aus komischen Gründen nicht, hier entlang 👉 https://anx.io/LVgkd

    Beim Schließen von Tabs wollte eine Website mich nicht aufgeben :) Dass es hier doch einen Backup-Link gab, war auffällig genug, den Schurken schnell ausfindig zu machen! :evil::saint: :D

    Ggf. ist das Problem nicht neu. Mit einer älteren Proxmox Version auf einer älteren Generation KVM Server war einer meiner Server in unregelmäßigen Abständen am Neustarten. Ich hatte es damals mit ungewöhnlich hoher Last in Verbindung vermutet. An die genauen Umstände kann ich mich nicht mehr erinnern, das Problem hatte sich irgendwann erledigt, möglich von meiner Seite aus sind rein Updates, aber auch ein Wechsel auf eine folgende Proxmox Major Version oder ein Wechsel auf einen anderen KVM Server - also leider ziemlich unspezifisch.

    Folgenden Beitrag verstehe ich in Ergänzung zum obigen, vorherigen. Also nicht alleinstehend:

    LUKS scheint ein gutes Indiz zu sein, war bei mir auch involviert.

    Ohne Gewähr, ist das Binden einer IP in der mailcow.confdie Lösung, sofern eth0:1 die IP yyy.yyy.yyy.yyy zugewiesen ist?

    Code
    # For technical reasons, http bindings are a bit different from other service bindings.
    # You will find the following variables, separated by a bind address and its port:
    # Example: HTTP_BIND=1.2.3.4
    
    HTTP_PORT=80
    HTTP_BIND=yyy.yyy.yyy.yyy
    HTTPS_PORT=443
    HTTPS_BIND=yyy.yyy.yyy.yyy
    
    # .....

    Also ich habe mich heute nochmal durchgecklickt. Erst keine Eier mehr gesehen, und vorhin per Zufall wieder drauf gestoßen. leider finde ich aber weder VPS M noch den gewünschten L. Geh ich wohl doch leer aus :(

    https://www.netcup.de/ueber-netcup/

    Über der Tasse. Du hast noch 2 Minuten, bis der wieder wo anders ist.


    Bearbeitung:

    Die Eier wechseln bisher im 10 Minuten-Takt. Jetzt bis 15:20 Uhr u.a. hier, beim Bild "Vorteile unserer vServer / VPS":
    https://www.netcup.de/vserver/vps.php

    v=DMARC1; p=none; damit eine Angabe da ist und weil nicht erneut reflektiert. Ich nutze bisher kein DKIM wegen Mailinglisten und einem Multihost-Setup wo Anwendungen noch über sendmail raus senden, SPF nicht strikt wegen Mail-Forwarding. Die Frage interessiert mich also auch und ob Probleme inzwischen gelöst sind.

    und auf einem anderen vServer das da gemacht:

    ssh root@vsrvrIP "dd if=/dev/sda " | dd of=./disk.ddimg

    und dann anschleßend das da

    qemu-img convert -f raw -O qcow2 -S 4K disk.ddimg disk.qcow2

    und ich hab das qcow2-Image, find ich genial

    Lieber für komprimierte Images etwas Festplattenplatz frei lassen oder frei räumen. Je nach dem wie sehr dd über ssh gepiped nun an der CPU und der Datenleitung hängt habe ich mir zumindest ein Verschieben, wie ArtCore7 schon sagt, eines RS auch schon eingehandelt. Ich muss dazu sagen, dass die Verbindung mehrfach durch das empfangende Netzwerk unterbrochen wurde, weswegen ich die Farce mehrfach neu startete, weil ich mich auch nicht traute nur Teile zu übertragen. Eine abgeschlossene Datei lässt sich leicht teilen (split, es kann auch gleich zu split gepiped werden) und bei einem Übertragen mit rsync -P auch ohne viel Overhead wieder anstoßen.

    Ja. Ich vermute das "Gebunden-Sein" der öffentlichen IP an den Host ist ein MAC filter, vielleicht zusätzlich eine Sperre, zumindest ein Verwerfen sobald Pakete nicht zugeteilter öffentlicher IP von der MAC kommen oder mehrere MAC Adressen dahinter stehen. D.h. wie oben schon erwähnt wäre vielleicht ein Faken möglich, aber mit Versuchen daran handelt man sich schnell auch einen Abuse ein. Also modulo Konfigurationsfehler gegenüber dauerhafter Fehlkonfiguration und Absicht.