Das längste Thema

  • mir ist irgendwie gerade eingefallen, wie netcup sehr simple DKIM f. die Webhosting-Kunden implementieren kann;


    einfach f. alle den selben Schlüssel verwenden; auf den privaten Key hat nur der Admin von netcup Zugriff,

    und jeder kann in seinem DNS den gleichen öffentlichen Schlüssel definieren;

    es besteht gar keine Notwendigkeit, daß f. jede Domain ein unterschiedlicher Key verwendet wird;


    einfach jede ausgehende Mail mit einer Signatur versehen, und den zu definierenden DNS-Eintrag (öffentlichen Key)

    im Wiki publizieren bzw. in der Routine, welche die automatischen DNS-Einträge f. das Webhosting durchführt, einfach diesen einen Eintrag mitmachen;:)


    f. die Default-Domain mailNNNNN.aHHHH.netcup.net hat ohnehin netcup die volle Kontrolle und kann automatisiert hier den DNS-Eintrag setzen,

    und bei der Gelegenheit auch den spezifischen AAAA-Record, da ja jedes Webhosting seine eigene IPv6 hat ...

    Grüße / Greetings

    Walter H.


    RS 1000 SAS G8 xRAM; RS 500 SSD G8; VPS 200 G8 Akt.; Webhost. 1000 m. 75%

  • diese f. den Einsatzzweck Video-Aufzeichnung vorgesehenen Platten dürfen auf keinen Fall als "General Purpose" verwendet werden;

    Das Internet sagt jetzt nichts dazu, Seagate warnt auch nicht davor.

    Gleiches bei WD Purple.


    https://www.reddit.com/r/build…ormal_pc_use_and/dhkwcpa/

    https://forums.tomshardware.co…l-use-and-gaming.3042652/


    Meine Samsung Seagate SpinPoint wird nämlich unerträglich langsam (70 MB/s RW), und ich habe das Gefühl, die wird bald den Geist aufgeben. (Bei nur 1150 Betriebsstunden, gekauft 2014)

  • Braucht man nicht mal. Es ist auch erlaubt mit Schlüsseln fremder Domains zu signieren. Google macht das z.B. so.

    Meine Mails werden auch immer mit d=paulzillmann-de.20150623.gappssmtp.com; signiert.

    Google ist hier gerade kein gutes Beispiel, weil die pfuschen anderweitig entsprechend;

    das hat im Mail Header nichts zu suchen, kein Standard:

    Code
    1. x-google-dkim-signature: ...

    Grüße / Greetings

    Walter H.


    RS 1000 SAS G8 xRAM; RS 500 SSD G8; VPS 200 G8 Akt.; Webhost. 1000 m. 75%

  • Das Internet sagt jetzt nichts dazu, Seagate warnt auch nicht davor.

    Gleiches bei WD Purple.

    na ja WD sagt implizit schon was dazu ...


    lt Specs: https://documents.westerndigit…le-series-2879-800012.pdf

    hier zu Beginn der 1te Absatz; eine normale Festplatte kannst aus genau 2 Gründen genau dafür nicht verwenden

    entweder diese ist nicht f. den 24/7-Betrieb ausgelegt oder diese ermöglicht kein sequentielles Schreiben, trotz ECC Fehler;


    und ehrlich wer kommt auf die Schnaps-Idee so eine Platte zweckentfremdet¹ zu verwenden?


    vgl. einfach Audio-CD (2352 Byte Sektor) und Daten-CD (2048 Byte Sektor, das Delta begründet durch CRC, ...)


    ¹ bei Datenträgern denen man Daten anvertraut will man genau diese Features der WD Purple nicht;

    es soll defekte Sektoren erkennen, markieren, und nie wieder verwenden, oder remappen;

    und genau das machen diese Platten nicht;

    Grüße / Greetings

    Walter H.


    RS 1000 SAS G8 xRAM; RS 500 SSD G8; VPS 200 G8 Akt.; Webhost. 1000 m. 75%

  • Hat von euch jemand Erfahrungen mit OpenShift gesammelt? Ich bin auf der Suche nach einer Verwaltung für Docker mit Kubernetes.

    Ja. OpenShift ist aber ein RedHat Alleingang. Das nutzt niemand außerhalb einer gewachsenen RedHat Umgebung. Die kommerzielle Version ist extem teuer, selbst im Unternehmens-Umfeld (ab $50.000). Es gibt zwar auch die Community Edition "okd", die ist aber recht unangenehm in der Installation und der Wartung.


    Die deutlich bessere Alternative: Rancher.

  • Ja. OpenShift ist aber ein RedHat Alleingang. Das nutzt niemand außerhalb einer gewachsenen RedHat Umgebung. Die kommerzielle Version ist extem teuer, selbst im Unternehmens-Umfeld (ab $50.000). Es gibt zwar auch die Community Edition "okd", die ist aber recht unangenehm in der Installation und der Wartung.


    Die deutlich bessere Alternative: Rancher.

    Rancher habe ich auch kurz überflogen, sieht auch interessant aus. Werde ich testen.


    Vielen Dank

  • und ehrlich wer kommt auf die Schnaps-Idee so eine Platte f. zweckentfremdet¹ zu verwenden?

    Hab ich halt rumliegen und meine qcows laufen mit angezogener Handbremse.


    Von den Festplatten muss ja auch gelesen werden können. Was bringen dir gespeicherte Beweismittel, wenn du sie nicht abrufen kannst?

    Selbiges für KI Streams (was auch immer das sein soll) - wenn Daten nicht gelesen werden (können), brauchst du sie nicht abspeichern

  • Von den Festplatten muss ja auch gelesen werden können.

    Was bringen dir gespeicherte Beweismittel, wenn du sie nicht abrufen kannst?

    genau hier hast Du beim Einsatzzweck des Video-Recordings eben kein Problem,

    wenn bei einzelnen Blöcken¹ eben kein 2ter Leseversuch unternommen wird;


    wenn Du q-Kühe ansprichst ist das aber essentiell, hier genügt schon 1 Block,

    bei dem ein 2ter Leseversuch unterbleibt ...


    ¹ je hochauflösender desto weniger fällt ein einzelner fehlender Block ins Gewicht;

    Grüße / Greetings

    Walter H.


    RS 1000 SAS G8 xRAM; RS 500 SSD G8; VPS 200 G8 Akt.; Webhost. 1000 m. 75%

  • Nochmal zu den Noctua Lüftern:


    Ich habe jetzt 3x120 (NF-S12A PWM) in der Front als Intake und 1x140 (NF-A14 PWM) als Outtake hintem am Mainboard. Dazu die Standard 2x140 Lüfter am CPU-Kühler (Thermalright Macho X2) und 1x140 NZXT Gehäuselüfter (V2) hinten oben als Outtake.

    Die Noctua Lüfter sind an insgesamt 2 PWM Fan Headern angeschlossen, ein Lüfter an der CPU am CPU Header und der zweite sowie der NZXT Lüfter via Splitter am CPU Opt Header.

    Die Noctua Lüfter sind mit den mitgelieferten "Kappen" etwas isoliert (normale Schrauben), die anderen Lüfter haben allesamt etwas Moosgummi erhalten.


    Auch, wenn es gerade im Raum warm ist, ist der PC extrem leise. Man hört zwar noch etwas, aber *deutlich* weniger als vorher.

  • diese f. den Einsatzzweck Video-Aufzeichnung vorgesehenen Platten dürfen auf keinen Fall als "General Purpose" verwendet werden;

    Grund: diesen Platten fehlt ein großteil der Fehlerlogik in der Firmware; sprich wenn ein Sektor nicht gelesen werden kann, wird zum nächsten gegangen, an Stelle zu versuchen diesen beim 2ten Versuch lesen zu können und ....

    Soweit ich das bisher verstanden habe, liegt der Unterschied vor allem beim Timeout auf fehlerhafte Operationen. Eine normale HDD versucht es nochmals und das kann ich schlimmsten Fall zu einem Blocking von 30-90 Sekunden führen und ebenso zu einem degradierten Raid-Array. Die Purple-Platten brechen nach spätestens 7-8 Sekunden ab.


    Ich verwende seit ca. einem Jahr eine 2TB Purple in einem NAS (nicht 24/7) und nun eine zweite 6TB für Offline-Backups. Ich wüsste ehrlich gesagt nicht, was dagegen sprechen soll. Wenn ein Sektor defekt ist und er nicht mehr gelesen werden kann, hast Du sowieso die Arschkarte gezogen, wenn dort bereits Daten drauf liegen. Die Markierung als defekter Sektor bringt Dir maximal etwas für zukünftige Schreiboperationen. Unabhängig davon würde ich die Platte bei defekten Sektoren sowieso ehestmöglich austauschen. Bei nur einem defekten Sektor bleibt es normalerweise nicht, wenn dieser Counter sich mal bemerkbar macht!


    Der einzige Punkt gegen eine Purple: Diese HDDs sind auf große Schreiblast ausgelegt und prinzipbedingt so, dass jeder Sektor durch Rotation des aufgezeichneten Materials relativ rasch überschrieben wird. Es könnte somit sein, dass es der Platte nicht gefällt, wenn die Daten in einem Sektor für Monate oder gar Jahre nicht mehr angerührt werden. Das sollte man aber durchaus bei allen Festplatten beachten, da die Magnetisierung mit der Zeit angeblich deutlich abnehmen kann. Ein erneutes Schreiben belegter Sektoren könnte von Zeit zu Zeit nicht schaden…

  • Kennt hier jemand eigentlich das Phänomen, die eigene Hardware/den eigenen Rechner etwas zu überdimensionieren?

    Meine 16GB Arbeitsspeicher halte ich für angemessen, über die RX580 lässt sich streiten (habe damals mehr gezockt als heute), aber der Ryzen 1700 ist doch sehr fraglich, ohne (selten) mal was zu rendern, bekomme ich den kaum über die 15% Marke. Auch die vielen Kerne nützen mir nicht soo viel.


    Jedenfalls lohnt sich die Hardware gerade m.u. das erste mal: Neben meinem normalen Desktop läuft im Hintergrund noch ne teilweise hungrige VM, an der via RDP gearbeitet wird (nicht von mir) und die neulich erwähnte VM für Inventor 2020, die ich selbst nutze. Was mich an letzterer VM stört: Es ist nicht so flüssig wie erhofft, die RemoteFX GPU (lässt sich nurnoch via Powershell anlegen) bringt keine Verbesserung, eher sogar eine Verschlechterung mit sich. Ein Durchreichen der GPU ist in HyperV möglich, wenn diese am Host ausgehängt ist (logisch), nur nützt mir das nichts, weil der Ryzen keine integrierte GPU hat und ich somit einen Grafifkchip zu wenig im Rechner.

  • 03simon10 3D über RDP und dann noch Netzwerk? Das laggt doch ohne Ende. Das würde zwar vor über 10 Jahren als der heilige Gral verkauft, aber es nutzt niemand. Ich hatte die Ehre ein paar Wochen über VDI/VMWare Horizon arbeiten zu dürfen - Never again, das kannst du keinem professionellem PC Benutzer antun.

  • Soweit ich das bisher verstanden habe, liegt der Unterschied vor allem beim Timeout auf fehlerhafte Operationen. Eine normale HDD versucht es nochmals und das kann ich schlimmsten Fall zu einem Blocking von 30-90 Sekunden führen und ebenso zu einem degradierten Raid-Array. Die Purple-Platten brechen nach spätestens 7-8 Sekunden ab.


    [...]


    Die Markierung als defekter Sektor bringt Dir maximal etwas für zukünftige Schreiboperationen. Unabhängig davon würde ich die Platte bei defekten Sektoren sowieso ehestmöglich austauschen. Bei nur einem defekten Sektor bleibt es normalerweise nicht, wenn dieser Counter sich mal bemerkbar macht!

    Den Timeout konnte man früher per Software setzen.


    Es gibt sogar bestimmte Hardware-RAIDS, die Platten nach 15s nicht reagieren komplett rauswerfen. Solange steht das RAID.


    ZFS z.B. kann so was handeln und da dürfen die Platten billiger sein.


    Es gibt Festplatten, die blocken bei einem hängendem Sektor alle Requests für viele Minuten im zweistelligen Bereich und Recovery endlos - Und das aus gutem Grund, denn der normale Anwender hat kein Backup. Da wird der Sektor so lange gelesen, bis die Cecksumme konstant bleibt.


    Die SMR und Video-Festplatten haben eine miese random Performance. Hier hilft eine größere write Size (nicht Block!). Dann kann man mit ZFS auch gut damit leben.

  • 03simon10 3D über RDP und dann noch Netzwerk? Das laggt doch ohne Ende. Das würde zwar vor über 10 Jahren als der heilige Gral verkauft, aber es nutzt niemand. Ich hatte die Ehre ein paar Wochen über VDI/VMWare Horizon arbeiten zu dürfen - Never again, das kannst du keinem professionellem PC Benutzer antun.

    Naja, was würdest du denn mit Hyper-V sonst tun?


    Wie gesagt, ich hab dort halt noch anderen Kram, der laufen muss, daher scheiden andere Umgebungen aus.

    RDP reicht mir persönlich aus, so viel mache ich normalerweise in VMs nun auch wieder nicht. Wobei ich auch sagen muss, dass InDesign (das hätte ich als intensiver eingestuft) doch sehr flüssig läuft, auch übers große weite Internet. Auf die CAD VM greife ich nur lokal vom Host aus zu, dort dürfte das Netzwerk keine Rolle spielen.


    Nichtsdestotrotz installiere ich mir am Wochenende mal ne andere kostenpflichtige Autodesk Software. So komme ich eventuell dahinter, obs an Inventor 2020 liegt oder an der Lizensierung selbst (meine Befürchtung). Denn die Freeware (TrueView) startet, dort gibt's aber eben auch keine Lizenz. Je nach Ergebnis, könnte eben Inventor 2019 die Lösung sein.