Beiträge von Paul

    Als ersten Schritt kann man auch einfach ein Git Repo mit Markdown Files pflegen. Falls man dann doch lokal eine "hübsche" Oberfläche möchte, könnte man auf ein Tool wie https://www.mkdocs.org/ zurückgreifen. Es muss ja nicht immer direkt eine gehostete Software sein. Oft reicht ja auch ein einfacher Sync (über Git). Wikis, Dokumentationen, etc. willst du zur Not auch offline zur Verfügung haben. Wenn du das auf deinem Webhosting laufen lässt und irgendwann einen Fehler machst, deine Doku nicht mehr erreicht ist, du aber in der Doku nachschauen willst, wie oder was du gemachst hast, ist das etwas blöd ;).

    Dann schau dir mal an, wie das auf deinem System bisher aussieht. Ist natürlich von Distribution zu Distribution leicht unterschiedlich. Würde jetzt mal auf Debian/Ubuntu tippen. Daher dürfte das wohl in

    Code
    /etc/nginx/sites-available
    /etc/nginx/sites-enabled

    sein. Also genauso wie auch bei Apache in Debian/Ubuntu. Schaue dir mal die bestehende vHost Konfiguration von deinem Mastodon an. Dann sollte klar sein wie du das anlegen musst.

    Wenn du dem Tutorial gefolgt bist, hast du bereits eine laufende nginx Instanz. Dann geht es nur darum, einen weiteren vHost einzurichten, der Ziel bzw. Cache für die Medien sein soll. Die entsprechende vHost Konfig ist ja in dem Blog Artikel bereits mitgeliefert. Du müsstest da jetzt nur die entsprechenden Daten ändern (S3 URL, Credentials, deine eigene Domain, ...).

    Um da helfen zu können, müssten wir schon wissen, wo es da genau scheitert. Hast du denn bereits einen S3 Provider und ein entsprechendes Bucket? Das wäre ja der 1. Schritt.

    Was genau verstehst du denn nicht? Welchen Reverse Proxy, Webserver hast du denn bisher im Einsatz? Falls es nicht nginx ist, kannst du das ganze auch erst einmal ohne nginx proxy cache machen und den S3 Storage direkt anbinden. Die verlinkte nginx Config ist im Grunde nur ein zusätzlicher lokaler Cache. Vermutlich auf Dauer schon nützlich, aber erst einmal nicht zwingend, wenn es nur darum geht, mal einen externen S3 Storage zu testen.

    Ist ein kompletter Snapshot über das Netcup SCP.

    Ja, aber auch dieser lässt sich ja "online" erstellen ohne dass das System vorher einen sauberen Neustart getestet hat. Wenn du Änderungen am System vornimmst und alles noch läuft, muss das nicht zwangsläufig heißen, dass das nach einem Neustart immer noch der Fall ist. Ein Zurückspielen des Snapshot erzeugt aber in jedem Fall einen (neuen) Start des Systems, weswegen Probleme durchaus auch durch das Zurückspielen des Snapshots auftreten können. Das wäre im Moment nämlich auch mein Verdacht, weswegen ich dazu raten würde, das ganze nochmal sauber neu aufzusetzen. Du willst ja wissen wie dein System funktioniert. Daher ist diese Flickerei jetzt nicht wirklich auf Dauer sinnvoll.

    ISt wirklich sehr merkwürdig, denn der Snapshot wurde ja abgelegt, nachdem geprüft wurde, ob alles geht. Das ist ja schon ein Wireguard Container enthalten der auch läuft...

    Hattest du denn vorher auch mal einen Neustart getestet? Oft zeigen sich gerade solche Netzwerk Probleme erst nach einem Neustart des Systems. Wenn der Snapshot "online" erstellt wurde, stellt er zwar alle Dateien wieder her, aber nicht zwangsläufig den vorherigen Zustand. Mit den gelieferten Informationen ist das auch alles etwas mühsam. Ich würde wirklich empfehlen einfach mal alle Daten zu sichern und nochmal neu anzufangen. Das System sauber aufsetzen und dann mal nach und nach die Konfigurationen und Daten wieder einspielen.

    telnet 52.1.184.176:443
    telnet: could not resolve 52.1.184.176:443/telnet: Name or service not known


    telnet registry-1.docker.io:443
    telnet: could not resolve registry-1.docker.io:443/telnet: Name or service not known

    Bitte genau hinschauen. Der Doppelpunkt darf da nicht hin. Domain/IP und Port müssen durch ein Leerzeichen getrennt werden. Führe das bitte nochmal ohne Doppelpunkt aus.

    Die genannte IP antwortet auch nicht auf Pings. Teste es lieber direkt mit telnet

    Code
    $ telnet 52.1.184.176 443
    Trying 52.1.184.176...
    Connected to 52.1.184.176.
    Escape character is '^]'.
    ^C^]
    telnet> Connection closed.

    bzw. inkl. DNS Abfrage

    Code
    $ telnet registry-1.docker.io 443

    Welche SSH Terminal (für Windows) nutzt Ihr denn so? Ich nutze eigentlich immer Putty und bin auch recht zufrieden. Ich finde nur bei vielen Verbinungen ist die kleine Liste sehr unübersichtlich. Ich würde die Verbinungen gerne gruppieren. Was ist denn so zu emfehlen?

    WSL (2). Damit lässt z.B. auch Tilix oder jede andere Linux App starten. Wenn man daran gewöhnt ist, ist das sicherlich die beste Variante unter Windows.

    Kann man sicherlich auch machen. Ist halt immer so eine Sache, ob das CSV richtig formatiert ist und man am Ende auch den Inhalt bekommt, welchen man erwartet. Sollte man idealerweise auch noch validieren. Man fängt dann an einen kleinen Stein aufzuheben und hat am Ende einen halben Berg auf dem Buckel ;) .

    Was für Bash Skripte sind das denn? Allgemin schreit das förmlich nach einem Tool wie Ansible, mit dem du für deine Server verschiedene Variablen setzen kannst (im YAML Format). Das muss auch nicht zwingend remote ausgeführt werden. Das würde auch lokal gehen, in dem es das Git repo auscheckt und lokal Ansible ausführt.


    Das Auslesen von Variablen aus einer CSV Datei um diese in einem Bash Skript zu verwenden klingt doch sehr abenteuerlich.

    Ich finde es Schade das Netcup nicht wie andere ein automatische Backup des Servers anbietet.

    Netcup kann ja nicht wissen, was du alles auf deinem Server laufen hast und welche Backup Methode jetzt genau für deine Applikationen sinnvoll sind. Snapshots existieren zwar, liegen aber lokal und sind daher streng genommen kein richtiges Backup. Generell sind zwar Snapshots nützlich, aber ersetzen kein richtiges Backup, weil sie auch nicht immer sauber funktionieren. Datenbanken lassen sich z.B. nur bedingt damit sichern. Ist der Server Teil eines Clusters, sind Snapshots auch nicht unbedingt sinnvoll. Daher lieber keine solche Funktion anbieten als eine, die nur Support Aufwand schafft, weil sie gar nicht richtig funktionieren kann. Daher an dieser Stelle ein gut gemeinter Ratschlag. Verlass dich nie auf die automatische Backup Funktion eines Providers. Du kannst nie sicher sein, ob das tatsächlich so funktioniert wie du das gerne hättest. Für ein ordentliches Backup ist und bleibt der zuständige Admin verantwortlich.

    Man sollte sich in die Sache auch nicht zu sehr rein steigern. Am Ende des Tages ist der Komfort meist am wichtigsten. Die entscheidende Frage ist ja auch immer: Wer ist der Angreifer? Vor wem will man sich eigentlich schützen? Im Zweifel klopft der einfach an deine Tür und bringt dir etwas Demokratie vorbei. Dann gibt man im Zweifel jedes Passwort "freiwillig" raus - unabhängig von der eingesetzten Verschlüsselungsmethode.


    Nutzt einfach den Passwortmanager, der euch am besten gefällt. Ob der jetzt über die Cloud synchronisiert oder lokal ist am Ende auch egal. Die meisten machen ihren Job ja ganz gut. Sobald man einen nutzt, macht man sich wenigstens etwas Gedanken über das Thema. Meist reicht das dann auch schon.

    Eine coole Aktion wäre ja gewesen, wenn man speziell ein paar Eier hier im Forum versteckt hätte, die nur angemeldete Forenuser hätten finden können. Das hätte auch die ganzen Bots mal effektiv ausgesperrt und verhindert, dass die guten Eier so schnell weg gewesen wären - auch wenn natürlich nachgelegt wurde.

    Auf der anderen Seite erzeugt so ein Feature wie "Firewall as a Service" natürlich auch wieder mehr Support Aufwand, weil eine FW gerne auch mal falsch konfiguriert werden kann, wenn man nicht genau weiß, was man tut. Als Nutzer hat man dann natürlich auch keine Logs, was das Debugging deutlich erschwert. Wir wissen ja mittlerweile, was Netcup auch so für Kunden hat und wie die Support Situation im Moment so ist. Mir würde dann jetzt schon Lars etwas Leid tun, der dann alles immer ausbaden muss ;).


    Das rote H nutzt halt einfach das FW Feature der Cloud-Software (wie viele andere Provider auch). Da müssen sie nichts großartig machen - außer es in ihr Dashboard zu integrieren. Das ist dann doch nochmal eine andere Situation als bei Netcup - wo dann doch viele Eigenentwicklungen drin stecken - was die Weiterentwicklung natürlich etwas schwieriger/aufwändiger macht.

    Eine Frage in die Runde, welche Software setzt ihr für eure "internen" Wikis ein von den hier manchmal die Rede ist?


    In der Forensuche habe ich auf die schnelle "MoinMoin" entdeckt, aber vielleicht kennt ihr da noch mehr. Ein MediaWiki nur für mich selbst einzurichten wäre zu viel.

    Wiki.js (https://js.wiki/). Aus einem ganz bestimmten Grund: Es kann alle Seiten als Markdown Files speichern und über Git synchronisieren. Sprich wenn dein Wiki aus irgendeinem Grund mal weg sein sollte, hast du jederzeit über das Git Repo Zugriff auf den Inhalt und musst es nicht erst aus dem Backup wiederherstellen.

    Bei mir war es das IPv6 Failover Netz, was auf einmal nicht mehr wollte. Ist mir gar nicht direkt aufgefallen, weil IPv4 weiterhin funktionierte. Es war auch nur von meinem neuen Ostern RS nicht erreichbar, von anderen Servern hingegen schon (allerdings mit Packet Loss). Scheint wohl aber wieder zu gehen, zumindest kann ich gerade keine Probleme mehr feststellen.