Beiträge von TBT

    Völlig OS unabhängig:


    Ich habe meine OTPs in 1Password (auf dem EU Server). Dadurch können sie nicht verloren gehen, wenn das eine OTP Geräte kaputt / verloren geht, gestohlen wird oder sonst nicht mehr verwendbar ist.


    Hardwarefaktoren wie Yubikeys haben mit 25 Keys nur eine sehr begrenzte Speichermöglichkeit für Faktoren, wenn man trotzdem welche verwenden will, wäre es wohl empfehlenswert, nur EINEN Key auf einem solchen Hardwaregerät für die Verwendung mit einem unterstützten Passwortmanager zu verwenden, z.B. 1Password | Two-Factor Authentication | Yubico . Wenn man das so machen will, daran denken, dass man mindestens ZWEI Hardwarekeys kauft und einrichtet.

    Ja, aktuell jage ich jeglichen Traffic durchs VPN um es zu testen. Bisher konnte ich keine Einbußen feststellen.

    Dann mach mal Geschwindigkeitstests mit und ohne Tunnel. Außerdem "ping google.com" mit und ohne, bzw. Du bekommst die Latenz ja auch beim Speedtest mitgeliefert.


    Wenn die Fritzbox Wireguard macht, macht das aufgrund der schwachen CPU (für solche Zwecke) bei mittleren und schnellen Internetanschlüssen insbesondere im Download einen massiven Unterschied aus.


    Zudem ist es hinsichtlich Sicherheit relativ egal, ob eine Anfrage nun vom RS oder Deinem heimischen Anschluss zu kommen scheint, mitgeloggt wird das auf jeden Fall und beide IPs sind Dir zuzuordnen. Und Adblocking macht man besser lokal, denn dann ist die Latenz der Namensauflösung niedriger.

    Weil es gerade in einem anderen Thread wieder Thema ist:

    Nutzt ihr Tools, um Paketverluste (bzw. die Zuverlässigkeit der Anbindung allgemein) kontinuierlich zu überwachen (evtl. mit Benachrichtigung/Warnung)?

    Falls ja, welche?

    https://github.com/louislam/uptime-kuma (ideales Paket für nen Quack) überprüft diverses und meldet per Telegram. Kann aber nur Uptime und keine Paketverluste detektieren.


    Ist aber ideal, um das Netcup DNS Drama nachzuvollziehen.

    Obwohl ich zufrieden mit NordVPN bin, habe ich mir diese Woche einen eigenen kleinen VPN via WireGuard und AdGuardHome auf meinem RS Cyber Duck installiert und bin echt begeistert. Klar, du kannst kein GeoBlocking umgehen aber rein um den Datenverkehr zu sichern und Werbung abzuschalten ist das Setup mega. Zumal meine FRITZ!Box mit dem Server verbunden ist und somit jedes Device in meinem LAN/WLAN ebenfalls ohne eine extra Config anzulegen.

    Nutzt Du das VPN mit dem RS dann als Default Gateway? D.h. Von der FB aus jeglicher Traffic durch den Tunnel? Damit würdest Du Deine heimische Bandbreite limitieren und die Latenz deutlich erhöhen.


    Wenn’s nur ums Adblock geht, ist es auch sinnvoller, ein AdGuardHome zu Hause zu installieren. Dann geht die Namensauflösung zu Hause immer noch, wenn der Internetzugang down ist.

    Was mich bis jetzt von Docker abhielt, sind Instanzen (wenn nicht deklariert wo ich nicht mehr wissen konnte was wo durch Docker am laufen ist.


    Ich sah Mal vor fast 2 Jahren zu wo jemand Docker für sich verwendete. Da war damals nichts strukturiert.

    Was meinst Du genau?


    Natürlich kann man auch Docker "schlecht" verwenden, wenn man keinen Plan und kein System hat.


    Ansonsten fasst man, wie mehrfach beschrieben, alles was man für eine Anwendung braucht in Stacks (in einem docker-compose.yaml File) zusammen. Und für eine andere Anwendung macht man einen anderen Stack.


    Es scheiden sich die Geister, ob man einen Datenbankcontainer für alle Anwendungen, die einen benötigen, macht und diesen überall einbindet, oder jedem Applikationscontainer seine eigene DB mitgibt. Ich finde das zweite Modell - auch wenns mehr Ressourcen benötigt - sinnvoller, da dann die Apps eigenständig sind und sich nicht gegenseitig beeinflussen können.

    Da kann man so richtig schön veraltete Images veralteter Distributionen mit entsprechenden Abhängigkeiten generieren

    Kann man machen, ja. Ebenso einfach kann man aber auch das Basisimage durch die neue Major Version austauschen, den Container neu builden und schon läuft die Anwendung nicht mehr auf z.B. Debian 11, sondern Debian 12. Davon abgesehen ist das OS des Containers ja nicht von außen erreichbar (nur der Applikationsport) und hat auch keinen veralteten SSH Server der gehackt werden könnte.

    unnötig freien Festplattenplatz eindampfen

    Wofür? Immer mal wieder unbenutzte Images cleanen und fertig. Wie schon an anderer Stelle erwähnt: wenn Deine Container viele Gigabytes groß sind, sind sie falsch gebaut oder konfiguriert.


    bindings auf localhost generieren

    Man kann überall Fehler machen, wenn man nicht weiß was man tut.

    sich so richtig schön im gepolsterten Container austoben, solange man nicht zum falschen Repository pardon Hub greift. Und das alles nur mit dem richtigen yaml und docker-compose up und down. Hurrayhurray!


    Ist ja ganz lustig. Es ist auch praktisch, wenn man sich nicht das System mit kaputten Abhängigkeiten beschädigen möchte, wenn man für ein Projekt was machen möchte.

    Ja genau darum gehts unter anderem. Es gibt nicht nur eine Version von einer Ressource, sondern genau die, die die App braucht und jederzeit pro Container eine unterschiedliche.

    solange man nicht zum falschen Repository pardon Hub greift. Und das alles nur mit dem richtigen yaml und docker-compose up und down. Hurrayhurray!

    Es gibt in erster Linie https://hub.docker.com/ . Daran bedient sich die überwältigende Mehrheit. Naja, die Arbeit fließt bei Docker in die richtige Konfiguration des docker-compose Files und nicht in die Abarbeitung eines Howtos. Der Vorteil ist, dass wenn man die richtige Konfig mal hat, man sie für immer und beliebig viele Hosts hat. Wie gesagt: die meisten Anwendungen werden mit einem Docker Setup angeboten. Installier mal Informationen & Support - mailcow: dockerized Dokumentation manuell - mit 16 Containern für einen vollständigen Mailserver via Docker kein Thema. Manuell wird eine so komplexe Sache gar nicht zur Installation beschrieben.



    Aber Herrjemine... effizient, überschaubar und gut zu administrieren?!?

    Effizient? Ich finde schon. Denn anders als bei VMs werden nicht unnötig Systemressourcen reserviert, sondern ein Container benötigt nur so viele Ressourcen, wie er verwendet.

    Überschaubar? Absolut! Alles was zu einer Anwendung gehört, steht in einem Compose File und wird in ein Netzwerk gepackt. Es ist klar definiert was rein und was raus geht und wo die persistenten Dateien und Ordner liegen. Du kannst jederzeit jeden Container löschen und neu spawnen.

    Gut zu administrieren? Ja. Wie gesagt, die Trennung ist vorteilhaft. Es gibt zudem Unterstützungstools (auch über Container installiert), die die Anzeige, Administration und die Updates der Container unterstützen. Schau Dir mal das recht neue louislam/dockge: A fancy, easy-to-use and reactive self-hosted docker compose.yaml stack-oriented manager (github.com) an. Super Sache.

    Hat sich hier schon mal jemand mit Docker unter Windows befasst?

    Nicht Dein Ernst!? =O Puh.

    TLDR: es geht, aber mach es nicht. Unter MacOS ist das jedoch ganz gut machbar, das hat aber ja auch einen unixoiden Unterbau.

    Wenn sich jeder Container am Host OS bedient, is es dann sehr wichtig welches Host OS ich für Docker verwende?

    Um die Frage etwas einfacher zu beantworten:

    - es sollten Updates für das OS verfügbar sein (logisch)

    - man kann jederzeit Container, die auf anderen Linux Distris aufbauen, auf seinem Host laufen haben

    - der Container bringt alles mit, was zum Betrieb der Anwendung benötigt wird


    So bauen manche Container z.B. auf index | Alpine Linux auf, das sich dadurch auszeichnet, dass es auch extrem klein kommen kann (z.B. 7 Mbytes , damit die App laufen kann). Das heißt aber nicht, dass der Host Alpine Linux sein muss. Da geht alles für was Docker funktioniert.

    Mach es, kann ich da nur empfehlen. Es existiert definitiv eine Umstiegs- und Lernhürde. Aber wenn die überwunden ist wirst Du Dich fragen, wieso Du es jemals anders gemacht hast.


    Docker verlagert den Aufwand vom Howto befolgen auf die passende Erstellung der Containerumgebung


    Vorteile:

    - viele Anwendungen voneinander getrennt auf ein und derselben Kiste

    - keine Abhängigkeitskonflikte (wenn eine Anwendung eine bestimmte PHP, Node.js oder DB Version braucht: egal, jede Anwendung bekommt unabhängig was sie braucht).

    - hast Du ein "Kochrezept" (=docker-compose.yaml File), hast Du es für immer und überall. Egal ob Du es einmal oder 100x brauchst, Du kannst es immer und überall verwenden.

    - Updates: Container löschen, neues Image ziehen, Container neu spawnen. Das geht auch z.B. mit Watchtower automatisch. Damit sind Updates (oder auch Backgrades) absolut trivial.

    - https://hub.docker.com/ als Repository von extreeeem vielen Containern.

    - Quasi jede Anwendung bietet mittlerweile ein Setup via Docker (Compose) an.

    - Es gibt nette Verwaltungssoftware wie https://www.portainer.io/ oder https://github.com/louislam/dockge , die einen unterstützt.

    - Machst Du Dir ein privates Repo auf Github oder einem privaten Git Server (z.B. Gitea, Gitlab) und syncst dort die compose Files hin, kannst Du Deinen Stack überall hin pushen und laufen lassen.


    Und noch so viel mehr.


    Einfach mal nen Server oder ne VM zu Hause machen und loslegen. TIP: NICHT auf Windows machen, sondern gleich vernünftig auf nem Linux Host.

    Gibt es denn noch Leute, die hier ernsthaft einen Mailserver betreiben? Wie gut oder schlecht klappt das?

    Ja, schon seit langem. Läuft gut.


    Die einzigen beiden Eingriffe:

    - eine neue IP muss bei T-Online whitegelistet werden, hierfür muss man ein Impressum auf einer Website unterhalb der Maildomain nachweisen können (also auf http://www.meinedomain.de , wenn der rDNS Eintrag und Haupt MX auf mail.meinedomain.de auflöst/verweist).

    - Ausgehend habe ich alle MS Maildomains selektiv (geht bei Kerio Connect) über https://www.brevo.com/de/ geleitet. (z.B. hotmail.de, outlook.de / .com etc.).