Posts by m_ueberall

    Google Chrome 83.0.4103.97 ("(Offizieller Build) (64-Bit)" aus dem Google-Repository unter Ubuntu Linux) will das Beispiel im Artikel (Katzenernährungsplan auf Inseln) nicht "nutzen", dabei sieht es nicht so aus, als sei die Stelle geändert. Funktioniert das irgendwo?


    EDIT1: Im Originalartikel funktioniert der Link nicht; wenn ich auf den Link hier im Beitrag klicke, funktioniert er?! :wacko:

    EDIT2: Da werden Erinnerungen an XML Linking Language (XLink) Version 1.1 und XML Pointer Language (XPointer) wach…

    Zu Punkt 1: Den für DKIM verwendeten Schlüsselnamen kann man i.d.R. selbst vergeben. Hier ist zu überprüfen, ob (a) der DNS-Eintrag korrekt ist – siehe unten – und (b) der obengenannte Schlüsselname "default" auch von der verwendeten Software verwendet wird, d.h. er muss im Header der Mails auftauchen.

    Code
    1. [2020-06-07T09:32:34+0200] ueberall_l@desktop01:~% dig +short -t TXT _domainkey.domain.tld
    2. mail-2017-07._domainkey.domain.tld.
    3. "v=DKIM1; h=sha256; k=rsa; s=email; p=XXX" "XXX" "XXX"

    Bei Netcup ist zu beachten, dass im CCP im Feld auf der linken Seite ".domain.tld" nicht mitangegeben werden darf, da dies automatisch ergänzt wird (aus Sicht der Programme hätte man ansonsten einen Schlüssel "key._domainkey.domain.tld.domain.tld" definiert).

    Es ist nicht unbedingt nötig, 48h abzuwarten (Kommentaren im Forum nach werden die Einträge seitens Netcup viertelstündlich aktualisiert) – wichtig ist, dass der Cache der betreffenden Rechner, welche für eine Verarbeitung der Einträge herangezogen werden, gelöscht wird. Somit kann über einen externen Nameserver (8.8.8.8, 1.1.1.1, 9.9.9.9, ...) bereits nach 20 Minuten eine Abfrage via dig @<IP> +short -t TXT _domainkey.domain.tld erfolgen, wenn aus irgendeinem Grund das Löschen des lokalen Caches nicht möglich sein sollte. (Danach ist die Information natürlich im Cache des verwendeten Nameservers, und man sollte einen anderen verwenden, wenn man den Test nach nochmaliger Änderung wiederum 20 Minuten später wiederholen muss. Man könnte die Geltungsdauer der DNS-Einträge herabsetzen, aber davon rate ich ab, wenn es sich nicht um einen eigenen/lokal aufgesetzten DNS-Server handelt – und sei es, weil man nur zu gern vergisst, diese danach wieder heraufzusetzen.)

    Hat hier Jemand bereits Erfahrungen mit dem #Zstd training mode für große Mailboxen (Größenordnung 300.000–500.000 Mails) gemacht? Gegebenenfalls sogar die Ergebnisse von nach unterschiedlichen Strategien zusammengestellten Trainingsmengen miteinander verglichen?

    Wenn der Rechner sowieso neu aufgesetzt werden soll, würde ich als Gegenprobe zunächst ein anderes Image austesten (was spricht beispielsweise gegen Debian 10?)

    Funktioniert dies, liegt es wohl am Netcup-Debian9-Abbild. In diesem Fall kann man sich mit dem Download des Original-Abbilds vom Debian-Server (via ftp unter dem SCP hinterlegbar) behelfen.

    Wenn das eine .deb-paketbasierte GitLab-Installation ist, kann das ein Problem sein; Debian hat hier wesentlich neuere Pakete (genaugenommen hat Ubuntu derzeit gar keine mehr). Es empfiehlt sich IMHO eine Sicherung einer Auflistung aller installierter Pakete und einer Übertragung des /etc-Verzeichnisses in einen Temporärordner der Neuinstallation für Vergleiche.

    Sofern die Bandbreite und der Platz auf dem PC ausreichen, würde ich zu einem Testlauf in einer Zweit-VM raten (ggf. stattdessen via stundenweise angemietetem Zweitserver für einen temporären Parallelbetrieb – kann Zeit sparen und die Nerven schonen!), denn die Debian-/Ubuntu-Releases werden ja zu verschiedenen Zeitpunkten herausgegeben und unterscheiden sich durchaus in Details.

    Mag jetzt vielleicht ein wenig bescheuert klingen..... aber hat überhaupt schon jemand dem H6G Bescheid gegeben das die G9 RS endlich verfügbar sind?

    Jemand sollte ihm als Wiedergutmachung einen Gutschein für Neukunden zukommen lassen…

    Das geht solange gut, bis es die TLD dann wirklich mal gibt. Und zack - Malwareportale.

    Die TLD Llanfairpwllgwyngyllgogerychwyrndrobwllllantysiliogogugoch dürfte es eine Zeitlang nicht geben… (nicht zu verwechseln mit dem ähnlich geschriebenen Dorf in Wales, dessen Name so ausgesprochen wird!) 8o

    Moin moin zusammen,


    ich würde mich gern mehr mit Cluster-Technologien auseinandersetzen - z.B. ceph, Docker Swarm / Kubernetes etc pp. Zu Hause im Homelab habe ich aktuell einen DellT320 mit esxi stehen - der würde Kapazitäten bieten um zu basteln. Eigentlich würde ich das aber am liebsten mit echter Hardware machen um näher am eigentlichen Anwendungsgebiet zu sein und evtl. störende effekte der Virtualisierung direkt vermeiden zu können [...]. Ich würde am liebsten mit allem drum und dran nicht weit über 500€ landen.


    Habt ihr Erfahrungen in dem Bereich? Wie habt ihr an Cluster-Geschichten experimentiert?

    "Gegenposition": Ich persönlich sehe hier keine störenden Effekte der Virtualisierung, welche gerade bei den ersten Schritten mit kleineren Konfigurationen kaum zum Tragen kommen können. Es dauert schon eine ganze Weile, bis man die logische Organisation analysiert/verinnerlicht hat und danach bedarf es sowieso konstanter "Zeitscheiben", um auf dem Laufenden zu bleiben. Hier bietet es sich IMHO durchaus an, mit stärkeren virtuellen Systemen (lies: Maschinen/Container, inklusive entsprechend dimensioniertem Hostrechner) zu starten, um explizit jeglichen potentiellen Hardware-/Setup-/Wartungsproblemen aus dem Wege zu gehen – gerade, wenn es sich um ältere/gebrauchte Hardware handelt, die man dann im ungünstigsten Fall "zusammenstückelt". Ob man sich nun eine einzelne Maschine selbst hinstellt oder je nach Bedarf Maschinen (stundenweise?) mietet, ist Geschackssache.


    Wenn ein physikalischer Cluster reizt, sollte für die o.g. ersten Schritte aber auch folgende Konfiguration ausreichen (die einzelnen Links funktionieren, auch wenn die Vorschau hier im Forum abwechselnd einen Fehler anzeigen sollte):

    Yes, but I was on a dead end. This is the last answer I got:

    Code
    1. i've discussed the issue with one of our network engineers and he is also convinced, that this is in fact an issue with mtu and therefore no issue in our infrastructure.

    So I expect to get this reopened now. Thanks for the help!

    Sorry–You expect or you don't expect (would make more sense from what's stated above, but just to be sure)?