Beiträge von m_ueberall

    Und falls LVM im Spiel ist oder das eine QCOW2-Datei ist, habe ich die notwendigen Befehle leider nicht im Kopf. ;(

    Die kann ja bei dieser Gelegenheit der angehende Fachinformatiker für Systemintegration RAD750 im Rahmen seiner Vorbereitung für die Ausbildung nachschlagen und zeitnah hier einstellen. War ja früher schon so, dass in diesen Situationen immer dem Lehrling Gelegenheit geboten wurde, zu üben. ^^

    Was den reverse DNS betrifft habe ich im servercontrolpanel.de bislang keine Änderungen durchgeführt.

    Im Customercontrol Panel sieht es eigentlich auch gut aus.

    Nein, das sieht nicht gut aus, denn es muss wirklich ein PTR-Eintrag für jede einzelne verwendete IPv6-Adresse gesetzt werden -- "AAAA:BBBB:CCCC:DDDD::" gilt somit für "AAAA:BBBB:CCCC:DDDD:0000:0000:0000:0000" und nicht für die im obigen Post genannte IPv6-Adresse, die auf "e86a:4dff:fe60:ac2f" endet!

    Die obige IPv6-Adresse hat derzeit wirklich gar keinen PTR-Eintrag (vgl. dig +short -x <IPv6-Adresse>).

    Wenn nicht genügend IP-Adressen für alle Domänen zur Verfügung stehen, würde man normalerweise sowieso den Mailversand via MX-Eintrag hilfsweise über eine ausgewählte ("dritte") Domäne abwickeln, welcher ein passender PTR-Eintrag zugeordnet ist. Natürlich ist in diesem Fall sicherzustellen, dass alle Domänen auch alle anderen Anforderungen der Google Email Sender Guidelines erfüllen.

    Am schnellsten wäre es vermutlich einfach wieder OPNsense zu installieren und das Backup einzuspielen. Oder der Support sorgt irgendwie dafür, dass die Festplatte wieder gelesen werden kann.

    Diese beiden Optionen dauern mit Sicherheit unterschiedlich lange, wenn das Ticket zunächst an die entsprechende Stelle weitergeleitet werden muss …

    Sofern OPNsense eine Wahl lässt, würde ich dies jedoch zum Anlass nehmen, und den Festplattentreiber wechseln.

    Schon wieder ein Ausfall. Und wieder startet der Server nicht mehr. So langsam macht's keinen Spaß mehr.

    Oder hat hier jemand ne Idee bevor ich den Server wieder neu aufsetze?

    Wenn das .qcow2-Abbild exportiert werden kann, könnte man es hiermit versuchen; analog wäre eine Sektorkopie (mittels dd) möglich.

    Wenn man von einem Rescue-Abbild bootet, könnte man je nach verwendetem/n Dateisystem(en) ggf. einen Versuch via fsck starten (was natürlich auch ins Auge gehen könnte, weil diese Aktion ja direkt auf den Originaldaten ausgeführt wird), wenn letztlich doch eine Neuinstallation möglich ist.

    PS: Welches VPS-/RS-Produkt ist hier betroffen?

    Virinum Ja, die Nutzungsbedingungen wurden heute aktualisiert. Da wir gesetzlich dazu verpflichtet sind, unsere User über Änderungen zu informieren ist eine neue Zustimmung erforderlich. :)

    Was wurde denn genau geändert? Hab eben nicht die Ruhe gehabt alles nochmal zu vergleichen. :)

    Dem schließe ich mich an; eine farbliche Hervorhebung/textuelle Kurzzusammenfassung der geänderten Passagen hilft "Altnutzern" des Forums sicherlich, eine Menge Zeit zu sparen, um sich über die Änderungen zu informieren[*] – gleichzeitig dürfte dies neue Nutzer wohl kaum abschrecken.


    [*] EDIT: Das dürfte nach einem kurzen Blick darauf insbesondere für englischsprachige Nutzer gelten, da die Nutzungsbedingungen anscheinend neu übersetzt wurden.

    Ein ATX-Board hat einen deutlich größeren Stromverbrauch. Wenn 8GB RAM nicht ausreichen, gibt es durchaus SBC, die 16GB oder (danach muss man derzeit noch suchen) 32GB RAM mitbringen. Die Frage ist, wie klein die "kleinen Docker-Container" sind und wie häufig auf den Backup-Speicher zugegriffen werden muss.


    Nur als Idee: Grundsätzlich könnte man auch einfach einen zweiten kleinen Rechner danebenstellen (bietet Redundanz/Lastverteilung, ggf. Aufgabenverteilung) und/oder Festplatten via USB-Dockingstation anbinden – das macht alles langsamer und ggf. muss man hier über die Möglichkeiten, Festplatten in den Schlaf schicken zu können, nachdenken, aber dadurch ist man auch flexibel, was den Austausch von ebendiesen Festplatten anbelangt. Wenn man einen Rechner als Backup-Server verwendet, benötigt der nicht unbedingt viel RAM und kann via Wake-on-LAN gestartet/via SSH wieder heruntergefahren werden.

    Obigen Screenshots kann ich nicht entnehmen, dass für "root" eine SSH-Schlüsseldatei erzeugt und hinterlegt wurde.

    Da der Zugriff über die virtuelle Konsole funktioniert, bieten sich zwei nächste Schritte an:

    • client-seitig: "ssh -vvvv" verwenden, um zu sehen, was hier vom Client verlangt wird
    • server-seitig: "sshd -T | grep -i password" eingeben, um zu sehen, ob nur Schlüsseldateien akzeptiert werden

    Die Verwendung von Passwörtern in Verbindung mit dem root-Konto sollte aus Sicherheitsgründen niemals ausprobiert werden, sinnvollerweise auch nicht in einem VPN (selbst bei Verwendung eines Nutzerkontos ist das heutzutage eigentlich nicht mehr vertretbar). Es gibt im Netz viele Anleitungen, welche die Erzeugung und Hinterlegung von SSH-Schlüsseldateien dokumentieren (Beispiel).

    Offenbar gibt es im neusten HWE Kernel Update für Ubuntu 22.04.03 LTS ein Problem mit ZFS. Der neueste per HWE ausgelieferte Kernel ist Version 6.5.0.14, der im Zusammenspiel mit der zfs Version in der 22.04 LTS oder mit den Snap Paketen für lxd wohl Probleme hat. […]

    Ein Update auf zfs 2.1.14 scheint die Lösung für Ubuntu LTS zu sein, ist aber offenbar noch nicht verfügbar. […]

    Der neue Kernel wurde trotzdem ausgerollt. Die Frage ist: Gibt es alternative Lösungen für das Problem, außer auf den HWE Kernel zu verzichten? Ist jemand von euch damit auch konfrontiert worden?

    Hier ist zunächst zu beachten, dass LXD eine eigene (ZFS-)Toolchain mitbringt; diese zu ersetzen ist wenig ratsam, weswegen ich von einem Wechsel auf aktuelle HWE-Kernel abrate (Kernel v5.15.x funktioniert hervorragend mit Ubuntu 20.04/Focal und Ubuntu 22.04/Jammy, die Netcup-Hardware wird für meine Bedürfnisse un­ein­ge­schränkt unter­stützt); denn wenn ich permanent Probleme mit Kernelupdates haben wollte, könnte ich ja gleich Fedora verwenden … :evil:

    Grundsätzlich rate ich dazu, aufgrund der Einsatzdauer von Ubuntu-LTS-Versionen auf die distributionseigenen ZFS-Pakete zu verzichten und die Upstream-Pakete für v2.1.14+(!!derzeit noch nicht v2.2.x!!) selbst zu bauen (siehe hier) und einen weiten Bogen um alle Ubuntu-spezifischen Erweiterungen (namentlich: zsys) zu machen; gerade beim Einsatz von LXD ist es ein Leichtes, hierfür einen Build-Container abzustellen, damit man die dafür erforderliche Toolchain (abgesehen von der dkms-Unterstützung) nicht voll­stän­dig direkt auf dem Host installieren muss.


    EDIT: Der Bau in einem Container, in welchem keine ZFS-Pakete installiert sind, hat den Vorteil, dass bei Verwendung des untengezeigten (vereinfachten) Scripts via alien keine störenden Abhängigkeiten/Unverträglichkeiten in die .deb-Archive eingebaut werden (Details finden sich in den OpenZFS-GitHub-Diskussionen):

    Dabei stelle ich mir die Frage, was (auf Servern!) eure bevorzugte Methode zur Einrichtung eines WireGuard-Tunnels ist. […]

    Was ist euer Favorit und vor allem warum? :)

    wg-quick, weil ich diese Lösung für generischer/belastbarer halte als einen Ansatz mittels NetworkManager. Zudem gibt es wohl einige Konfigurationshilfen (GitHub-Projekte) für die Konfiguration, welche diesen Ansatz ebenfalls unterstützen – die detaillierteren Notizen aus dem letzten Jahr dazu stehen aber auf irgendeiner TODO-Liste, die ich erst wieder anschaue, wenn ich die ganzen Schlüssel durch "vanity keys" ersetze.

    [...] Allen Kunden die nicht 2FA aktiv hatten das ohne Vorwarnung aufzuhaslen kann nur durch einen Fakt gerechtfertigt werden:
    Die Kundenpasswoerter (im Klartext oder nicht gesaltet) wurden entweder von einen Mitarbeiter oder wegen Einbruch/Hack gestohlen.

    [...] Das ist aus meiner Sicht ein Armutzeugnis und Eingestaendnis eines Einbruchs ins System.

    Ich bezweifle, dass diese Schlussfolgerung/Hypothese stimmt (Stichwort DSVGO, Benachrichtigungspflichten) – denn es ist wenig plausibel, dass sich Netcup "aus Image-Gründen" im Falle eines Einbruchs gegen eine entsprechende Kontaktierung der Kunden entschieden hätte. Eine Kündigung schließt allerdings jegliche "Wiederholungsgefahr" aus, das ist insofern konsequent im Rahmen der obengenannten Hypothese.

    Abhängig von der gewählten Softwarelösung für den Mailserver kann man eine Ausfallzeit durchaus auch vollständig vermeiden, indem man, sofern Dovecot verwendet wird, beispielsweise doveadm-sync einsetzt (was beim Betrieb mehrerer Mailserver im Multi-Master-Betrieb sowieso unumgänglich ist): (1) Neuen Mailserver aufsetzen, (2) zweiten MX-DNS-Eintrag für diesen hinzufügen, (3) warten, bis erste E-Mails angenommen werden, und (4) MX-DNS-Eintrag für alten Mailserver entfernen. Logischerweise ist sicherzustellen, dass wirklich alle E-Mails auf dem neuen Mailserver synchronisiert wurden, bevor man den alten endgültig abschaltet.

    Falls jemand nach was analogem zu TeamViewer¹ sucht,

    hier: https://www.hoptodesk.com/de

    die Frage muss lauten: "was kann das selbe wie TeamViewer, braucht aber keinen Server und benötigt auch keine Firewall-Regeln?" ;)

    Gibt es irgendwo einen detaillierteren Vergleich inklusive technischer Aspekte zwischen aktuellen Versionen von RustDesk und HopToDesk?

    • Zu RustDesk gibt es ja in einschlägigen Foren – nach einem zugegebenermaßen unglücklichen, bestätigten Vorfall bei der Lokalisierung – immer wieder "komische" Diskussionen/Gerüchte (siehe hier [Bing-Cache]); ist schon wieder eine Weile her, dass ich das einmal mit einem eigenen Server in einem LXD-Container ausgetestet habe.
    • Bei HopToDesk wurde die Kommunikation kritisiert; dieses startete dem Vernehmen nach als Soft-Fork von RustDesk, erforderliche Nutzung von TURN-Servern "fiel/fällt unter den Tisch" (siehe hier [Reddit-Forum])

    Ich habe eine fixe IP Adresse, da mein Router (Swisscom) dies auch unterstützt, allerdings bringt mir diese eine Domain nichts

    In diesem Zusammenhang möchte ich daran erinnern, dass einige Router (insbesondere beispielsweise die Fritz!Box) Zugriffe über Domänennamen standardmäßig abblocken, sofern diese nicht explizit in einer allgemeinen Ausnahmeliste (whitelist) aufgenommen werden – Stichwort "DNS-Rebind-Schutz":


    dns-rebind-schutz.png