Das längste Thema

  • wenn sie kaputtgehen, das meist recht schnell tun.

    ja hoffentlich, stell Dir vor, es wäre langsam und Du machst die ganze Zeit ein Backup und weißt eigentlich gar nicht, ob es überhaupt brauchbar ist ...=O


    und Juhu die 6te Mobilfunkgeneration ist im Anrollen:

    https://industriemagazin.at/a/…chste-mobilfunkgeneration


    wie war das noch:

    mit jeder Generaton sank die Reichweite, sind wa dann soweit dass ma die Kloschüssel und den Klobesen mit an Repeater ausstatten muss?:D

    Grüße / Greetings

    Walter H.


    RS, VPS, Webhosting - was man halt so braucht;)

  • ja hoffentlich, stell Dir vor, es wäre langsam und Du machst die ganze Zeit ein Backup und weißt eigentlich gar nicht, ob es überhaupt brauchbar ist ...=O

    1. Gibt es dafür S.M.A.R.T.

    Eine unabhängige Google-Studie[1][2], die über neun Monate ging, alle Hersteller und insgesamt 100.000 Festplatten umfasste, brachte 2006 folgendes Ergebnis: Unter Einbeziehung aller relevanten Parameter sind 64 % aller Ausfälle mit S.M.A.R.T. vorhersagbar.

    Backblaze uses SMART 5, 187, 188, 197, and 198 for determining the failure or potential failure of a hard drive.

    2. Gibt es Dateisysteme, welche für alle Dateien mehrere hierarchische Prüfsummen schreiben; diese lassen sich kontrollieren, sodass Aussetzer in der Praxis schnell auffallen, was sich auch für Backupmedien auf HDD-/SSD-Basis eignet (für unixoide Betriebssysteme bspw. ZFS; dessen Entwicklung für Windows, macOS läuft noch)

    VServer IOPS Comparison Sheet: https://docs.google.com/spreadsheets/d/1w38zM0Bwbd4VdDCQoi1buo2I-zpwg8e0wVzFGSPh3iE/edit?usp=sharing

  • 1. Gibt es dafür S.M.A.R.T.

    nur bedingt ...; darum sollte man das Backup-Verify nicht direkt im Anschluß an das Backup machen sondern zeitversetzt;

    das funktioniert aber in der Praxis nicht;


    ein langsames Plattensterben würdest mit SMART erkennen, wenn z.B. der Remapping-Sektor-Counter langsam aber stetig nach oben geht;

    aber ein langsames Sterben des Controllers definitiv nicht; darum ist es ja gut, dass die sehr schnell sterben;

    und 64% ist deutlich zu niedrig¹ um es als das 'Allheilmittel' zu erwähnen - zumindest ¾ bzw. 75% sollte es schon sein;


    ¹ der klassische Home-User hat 3 Datenträger, eine SSD f. das System, eine Platte f. die Daten und eine weitere Platte (extern zum Sichern):

    hier würdest statistisch bei einem der 3 Datenträger mit SMART gar nichts merken, wo Du hättest rechtzeitig gegensteuern hättest können;


    und der Geizkragen von Home-User hat nur 2 Datenträger, einen im PC und einen extern zum Sichern; naja nicht viel besser ...


    tab 's Einwand mit Magnetbändern der hat schon was ...²

    ist nur f. den Smallest-Office bzw. Home-Bereich preislich in einer absolut anderen Liga;

    hier würde sich eher RDX anbieten; was aber auch noch deutlich überteuert ist: https://www.tandbergdata.com/d…ovable-disk/rdx-quikstor/

    f. kleinere Datenmengen bzw. solchen die ohnehin statisch sind - z.B. das Archiv der Digicam-Bilder - ein optischer Datenträger (BD-R), warum nicht?;)


    die Geschichte hier: https://presse.lg.de/2016/07/0…t-m-disc-brennern-von-lg/

    ist wahrscheinlich besser als es von vielen abgetan wird; bei Festplatten wissen wir: wenn aus noch ungeklärter Ursache, die Mechanik nicht

    mehr will, es Dir nichts nützt, dass die Magentisierung unversehrt geblieben ist; bei SSDs ist dieses Risiko 'des Einrostens' nicht gegeben, hier kommt dafür

    die andere Geschichte, dass die Flash-Speicher doch auch den Inhalt verlieren; und das deutlich schneller als bei magnetischen Datenträgern;

    (ich weiß hier vermische ich Backup und Langzeit-Archiv, aber ohne einem Backup braucht man über ein Langzeit-Archiv gar nicht nachdenken)


    ² so lange nicht das passiert, was ich in der Arbeit regelmäßig erlebt habe, dass das Bandlaufwerk das Band geschluckt hat,

    und damit das Laufwerk unbrauchbar gemacht wurde, und nur noch vom Service-Techniker durch ein neues :Laufwerk ersetzt werden konnte;

    dass das Band ebenfalls im Eimer war sei nur nebenbei erwähnt; die verwendete Technologie damals war DLT;

    aber davor ist man bei sämtlichen Bandtechnologien, welche am Banddatenträger nicht die 'Leerspule' (vgl. DDS) mit dabei haben, nie gefeit;


    die Geschichte mit dem Filesystem - ZFS - ist hier schon nicht schlecht,

    man möge sich ein Bild mit diesen beiden Geschichten machen ...

    https://www.heise.de/forum/hei…en/posting-37614242/show/

    und

    https://forum.level1techs.com/t/zfs-without-ups/157093

    Grüße / Greetings

    Walter H.


    RS, VPS, Webhosting - was man halt so braucht;)

  • Eine Verifikation lässt sich in der Regel sehr wohl im Anschluss an eine Sicherung genau dann durchführen, wenn die Schreib-/Lese-Caches sicher gelöscht wurden. Beim ordnungsgemäßen An-/Abmelden eines USB-Geräts geschieht das zwangsweise; im ungünstigsten Fall ist ein Ein-/Ausschalten des betroffenen Geräts erforderlich.


    Die Verifikation erfolgt immer über das Lesen der geschriebenen Daten und den Vergleich mit Prüfsummen (im- und/oder explizit). Wenn also Daten in den immer wieder (gern?) geschilderten Horrorszenarien, in welchen Controller nicht-ausgeführte Schreiboperationen fälschlich als erfolgreich zurückmelden, nicht korrekt geschrieben wurden, können die (hierarchischen) ZFS-Prüfsummen im Falle eines tatsächlichen Datenverlusts gar nicht konsistent sein. Und das ist genau der Vorteil gegenüber anderen Dateisystemen, welche keine Prüfsummen verwenden: Dort lassen sich Inkonsistenzen beim erneuten Lesen der Daten basierend auf nicht-existenten internen Prüfsummen nämlich logischerweise nicht erkennen. (Kein Dateisystem ist fehlerfrei, aber Stromausfälle sind bei ZFS nicht überkritisch; im Rahmen einer Backupstrategie/Betriebsstrategie, die ihren Namen jeweils verdient, ist die Verwendung von entsprechenden Akkus/Kondensatoren auch seit Jahren nicht mehr sonderlich problematisch oder übermäßig teuer, vergleiche das Laptop-mit-USB-Dockingstation-Szenario. Selbst wenn das Dateisystem furchtbar fragil wäre, würde die vorgenannte Backupstrategie dem übrigens Rechnung tragen können/müssen, sprich: vorbeugen.)


    Interne Prüfsummen bei Dateisystemen sind dementsprechend genauso hilfreich wie die Auswertung von S.M.A.R.T-Kennziffern, welche zusätzliche Anhaltspunkte für Probleme bei einer Sicherung (oder im Anschluss an eine Sicherung, wenn die Medien regelmäßigen Funktionstest unterzogen werden, weil Sicherungszyklen zeitlich zu weit auseinanderliegen; vgl. "Zeitversetzung" oben) liefern – und im Zweifelsfall ist die Sicherung genau dann zu wiederholen (und das bislang verwendete Medium als unzulässig zu verwerfen), wenn auch nur ein Test fehlschlägt.


    Sicherung erfordert Redundanz, also sollte man mindestens zwei Medien (ggf. unterschiedlicher Bauweise) für dieselbe Sicherung verwenden.

    Unabhängig davon empfiehlt sich im Backupbetrieb die Verwendung eigener Prüfsummen/Redundanzvorhaltung auf demselben Medium (vgl. Parchive; wurde im Forum auch schon mehrfach angesprochen).

    VServer IOPS Comparison Sheet: https://docs.google.com/spreadsheets/d/1w38zM0Bwbd4VdDCQoi1buo2I-zpwg8e0wVzFGSPh3iE/edit?usp=sharing

  • Macht es eigentlich einen Unterschied, bezüglich der Geschwindigkeit, ob ich

    1) Ein großes Archiv über ssh/scp vom Remoteserver zum lokalen Server entpacke, ohne das Archiv vorher herunterzuladen. (Weil nicht genug Speicherplatz für gepacktes und entpacktes Archiv ;))

    2) Den Remoteserver per WebDav mounte und die Datei vom eingebundenen Verzeichnis entpacke.

    Letztlich: Ist ssh/scp/sftp schneller als WebDav? Oder macht das keinen Unterschied?

  • ich würd sagen, das hängt vom Verfahren ab wie es gepackt wurde,

    und demnach wie es zu entpacken ist;


    wenn es sequentiell durchgeschnattert werden kann,

    ohne bei jedem File (im Archiv) auf den Anfang zu müssen is es egal;;)

    Grüße / Greetings

    Walter H.


    RS, VPS, Webhosting - was man halt so braucht;)

  • Letztlich: Ist ssh/scp/sftp schneller als WebDav? Oder macht das keinen Unterschied?

    Das hängt bei größeren zu übertragenden Datenmengen immer auch von der verwendeten Verschlüsselung ab. Unabhängig von der Geschwindigkeit bei "vollständiger (Erst-)Übertragung" könnte es je nach Anwendung eine Rolle spielen, dass via WebDAV keine Originalerstellungszeitpunktinformationen mitübertragen werden können, was dann auch bei späteren inkrementellen Übertragungen (beispielsweise via rsync) sehr wohl einen Unterschied machen kann.

    VServer IOPS Comparison Sheet: https://docs.google.com/spreadsheets/d/1w38zM0Bwbd4VdDCQoi1buo2I-zpwg8e0wVzFGSPh3iE/edit?usp=sharing

  • Macht es eigentlich einen Unterschied, bezüglich der Geschwindigkeit, ob ich

    1) Ein großes Archiv über ssh/scp vom Remoteserver zum lokalen Server entpacke, ohne das Archiv vorher herunterzuladen. (Weil nicht genug Speicherplatz für gepacktes und entpacktes Archiv ;))

    2) Den Remoteserver per WebDav mounte und die Datei vom eingebundenen Verzeichnis entpacke.

    Letztlich: Ist ssh/scp/sftp schneller als WebDav? Oder macht das keinen Unterschied?

    aRaphael wieso mountest nicht gleich direkt als SSHFS?

    Ich habe jetzt mal zwei verschiedene Storages zweier verschiedener Anbieter auf meinen Server eingebunden, einmal über webdav und einmal über sshfs.

    Dann habe ich dort einfach mit fio die iops und MB/s getestet

    Webdav ist bei beiden Storages deutlich schneller als das ssh-fs

  • hat sowas schon mal jemand erlebt; weil gestern schwere Unwetter über uns hinwegfegten,

    hatte ich vorsichtshalber meinen PC samt Router niedergefahren und abgedreht;


    beim Start scheint der Router noch nicht vollständig hochgefahren zu sein,

    und da hat er dann den PC in ein unbekanntes Netzwerk gehängt - mit fixer IP, kein WLAN - und das hier

    pasted-from-clipboard.png

    war nicht vorhanden ... (und es verhielt sich, wie wenn 'Public' gesetzt wäre)


    ich hab eine Weile gesucht, wieso nichts mehr ging - sämtliche File-Shares,

    und anderes hatte keine Wirkung, und damit konnte meine Linux-VM auch keinen

    CIFS-mount herstellen;:(


    wie bescheuert ist das denn?X(

    Grüße / Greetings

    Walter H.


    RS, VPS, Webhosting - was man halt so braucht;)

  • Hm?
    Hängt doch davon ab, für welches Abo man sich bei Cloudlfare entscheidet?!

    keine Ahnung, ich kann nur soviel dazu sagen, dass es Sites gibt wo ich gleich mal einen Browserfehler bekomme,

    weil das Zertifikat welches geliefert wird f. eine andere Domain¹ ist;

    manchmal hilft clientseitig ein Refresh, manchmal ein 'ja ja passt schon ich übergeh das und mach eine Ausnahme',

    aber selten das es direkt wie gewünscht klappt;


    ¹ bei SSL-Interception passiert bei meiner Config folgendes, ich brech die SSL-Verbindung auf,

    reiche den HTTP-Request (inkl. SNI) weiter und vom SSL-Zertifikat, welches vom Server kommt

    wird der CommonName und die SANs entnommen und ein entsprechendes SSL-Zertifikat 'nachgebaut';

    die meisten haben unter anderem sni.cloudflare.com in den SANs,

    diese Site hat echt nur muellmail.com und *.muellmail.com so wie man es erwartet;

    Grüße / Greetings

    Walter H.


    RS, VPS, Webhosting - was man halt so braucht;)

  • Das ist dann aber ein Problem, was du hast. SNI Funktioniert hervoragend, in allen Browsern.

    Wenn du dir eine komische Proxy Lösung bastelst, die sich nicht an die aktuellen RFCs hält...


    Oder arbeitest du noch mit dem Netscape Navigator?

  • ...

    Aber dann halt meist nur diese skalierbaren, stundenbasierten Cloudserver, die für den Dauerbetrieb viel zu teuer sind.

    ...

    Aber praktisch sind sie schon irgendwie und ich habe das jetzt auch mal genutzt.

    Schnell mal einen etwas größeren Sever gebucht, ein paar Tage lang was ausgetestet und den Server dann wieder gelöscht.

    Das gibt dann nur eine kleine Rechnung, weil stundenbasiert. :)

    Wenn man ansonsten keine Server ungenutzt rumliegen hat (Was ja bei keinem von uns der Fall ist 8)) dann ist das doch recht praktisch.