Beiträge von KB19

    Code
    # z.B. IPv6 bei irgendwas erzwingen:
    wget -O /dev/null -6 https://fnx.li/


    Das Ziel sollte natürlich IPv6 unterstützen, sonst wird das logischerweise nichts! :D


    Ich kann mir aber nicht vorstellen, dass das klappt. ICMPv6 ist für jegliche IP-Kommunikation erforderlich, es wird ja kaum nur am Ping scheitern.



    MfG Christian

    Wenn man die Keyfiles mit einem Passwort schützt, ist es eigentlich fast egal, ob diese in der Cloud abgelegt werden. Meine liegen am NAS, über mein VPN kann ich mir jederzeit fehlende auf z.B. Handy oder Notebook herunterladen. (Und eine Passphrase sollten Keyfiles immer haben, außer für automatisierte Aufgaben über Scripte!)


    Ich finde Keyfiles extrem praktisch. So muss ich mir nur die Passphrase merken. Am Smartphone bzw. Tablet verwende ich VX Connectbot, dort werden sie einwandfrei unterstützt. Und auf fremden Rechnern würde ich niemals eine SSH-Verbindung zu meinen Servern herstellen! Das ist meiner Ansicht nach eine der schlimmsten Aktionen, die man machen kann. Würde bei mir aber sowieso nicht gehen, weil SSH nur über das VPN erreichbar ist.



    MfG Christian

    hat es eigentlich jemand mal hinbekommen die IPv6 Adressen aus dem /64 direkt an die Container zu verteilen?


    Könnte es an NDP scheitern? Häng Dich mal mit "tcpdump -n -l -v -i eth0 icmp6" dran und beobachte, ob auf die Neighbor Solicitations überhaupt ein Neighbor Advertisement von Deiner VM folgt.


    Ich weiß nicht, wie das bei LXD oder OpenVZ gehandhabt wird, aber vielleicht braucht man da auch etwas wie ndppd oder wenigstens ndp_proxy. Das standardmäßig enthaltene /64 ist nämlich nicht geroutet!



    MfG Christian

    Ich glaube, spätestens jetzt muss ich mich endlich mit Lets Encrypt und der DNS-Challenge beschäftigen. Lange genug vor mir her geschoben.


    Die letzte Testphase meines Setups läuft zwar noch, aber es sieht bisher sehr gut aus. Wurde auch Zeit, in ungefähr zwei Wochen laufen meine ersten St***SSL-Zertifikate aus… 8|


    Dank getssl und der API meines Domainregistrars läuft es ohne jegliche Änderung auf den Zielservern von einer zentralen VM aus. Mal abgesehen von OCSP-Stapling, dafür muss ich einmalig Änderungen im jeweiligen vHost vornehmen. Danach aber nie wieder, weil ich das auf eine neue Struktur umstelle, wo es ebenfalls von getssl mit aktualisiert wird.


    Einen kleinen Haken hat das Setup noch: Wenn der Zielserver nicht erreichbar ist, wird das Zertifikat wahrscheinlich erfolgreich angefordert, kann dort aber nicht installiert werden. Einen erneuten Versuch gibt es nicht. In diesem Fall bleibt mir nur die Benachrichtigung vom Cron-Daemon per E-Mail, woraufhin ich händisch eingreifen muss. Mal sehen, ob ich dafür noch eine simple Lösung finde… Wenn ich den Sourcecode richtig interpretiert habe, versucht er es beim nächsten Cron-Durchlauf (oder eben manuell) einfach nochmals zum hinüber Kopieren. Das Problem ist somit keines, da der Autor dran gedacht hat. Auch gut… :)

    Kannst Du vielleicht ein wenig erklären wie bei dir das DHCP eingerichted isst?


    Ich bin gerade etwas im Stress, wenn etwas fehlt oder unverständlich ist, bitte einfach melden. Das sollte aber alles sein, exklusive meinem VPN-Kram… ^^



    Betrieben werden die Gäste über libvirt/kvm, dort ist einfach br0 als Netzwerkschnittstelle angegeben.


    In den Gastsystemen laufen resolvconf, rdnssd und ntp. Gäste und Host werden mit Debian 8/9 betrieben.



    MfG Christian


    PS: Mit dnsmasq gab es für RA/DHCPv6 ein paar gravierende Probleme, deshalb musste doch radvd herhalten.


    PPS: Im Gastsystem ist "auto" für das inet6-Interface ganz praktisch, zusammen mit: pre-up ip -6 token set ::dead:affe dev $IFACE

    Also ist das wirklich eine Macke von fetchmail? Gepaart mit fehlern von mir?


    In erster Linie definitiv ein Konfigurationsfehler. Allerdings kann man bei Fetchmail nie 100% ausschließen, dass so etwas während dem Betrieb nicht passieren wird. Und es hat auch noch ein paar andere Macken, die auf der Getmail-Website gut aufgeführt werden.


    Getmail kann man zwar auch so konfigurieren, dass alles über einen Mailserver weiter zum Postfach zugestellt wird. Meistens macht man es aber so, dass man direkt an den LDA (z.B. Dovecot) oder den Spamfilter zustellt. Sogar die direkte Zustellung an ein Maildir ist möglich, umgeht dann aber eventuell vorhandene Sieve-Filter. Dadurch kann die Mail bzw. eine Bounce-Nachricht im Fehlerfall gar nicht erneut in der Queue landen.



    MfG Christian

    Synology setzt in manchen NAS-Geräten auch schon auf Btrfs, von daher ist die Tatsache, dass Ubuntu darauf setzt, nicht wirklich eine Entscheidungsgrundlage :D


    Mit ZFS habe ich persönlich noch keine Erfahrung gemacht, dazu kann ich nichts sagen. Sorry.

    Schau Dir mal Getmail an, das hat solche Designschwächen nicht! ;)



    MfG Christian


    PS: So etwas ist mir bei meiner ersten Fetchmail-Konfiguration auch passiert. Damals hingen knapp 2.000 Mails in der Queue. Zum Glück fiel es mir nach ein paar hundert Mails auf…

    Bei mir läuft aber alles zufriedenstellend und stabil. Daher würde mich interessieren, was deine Probleme mit BTRFS waren.


    Die Stabilität war nicht das Problem, wenn man die Meldungen aus dem Internet ignoriert. Eher, dass dieses und jenes an Userspace-Tools noch nicht ganz oder gar nicht implementiert ist. Auch gefiel es mir nicht, dass ich immer den neuesten Kernel fast schon verwenden muss, wenn ich kein Risiko eingehen möchte. Das passt nicht zu einem Debian Stable System. Da die Dokumentation und das Wissen innerhalb der Community logischerweise auch noch nicht auf dem Stand von ext4 o.ä. ist, habe ich mich dann doch lieber dafür entschieden, bei einem bewährten Mix zu bleiben. Btrfs wird kommen, keine Frage, aber man muss es ja nicht überstürzen. Ich sammel lieber erst einmal Erfahrung mit unwichtigen Dingen in einer VM zu Hause. Für ein Produktivsystem ist mir das aktuell zu gefährlich.

    Zu Zeiten mit den ganzen Medienpartnern und Sponsoren (ORF, SRF, FTV, Wagner, ...) war es durchaus interessant. Zwischen 2007 und 2010 waren jedes Jahr 300.000 oder noch mehr Spieler am Start. Da hast bei einem Rennen auf den hintersten Plätzen gar keine Weltcuppunkte mehr bekommen, weil nur die ersten 100.000 berücksichtigt wurden. Durch den Wegfall vom ORF und anderen sank auch die Bekanntheit und das Interesse. Davor gab es sogar fix Fernsehbeiträge über Ereignisse bei der SC und große Live-Events als Saisonabschluss, wo die Besten vor Publikum gegeneinander antraten. Dagegen waren die letzten Jahre Kinderkram... :D

    Zitat

    or this file system doesn't support hardlinks


    Überprüf mal das, ob Du dort manuell Hardlinks (nicht Softlinks!) erstellen kannst.


    Ansonsten prüfe nochmals genau die Rechte des gemounteten Verzeichnisses.



    MfG Christian