Beiträge von Loxley

    Der Idee ist das Ganze modular mit Hilfe von Docker aufzubauen.

    Halte ich für eine sehr gute Idee. Das Tolle an Docker ist, dass du erstmal alles lokal aufbauen kannst, sogar ohne gleich einen VPS mieten zu müssen. Wenn du alles auf deinem Rechner fertig hast, musst du noch dein docker-compose-File hochladen, vielleicht ein paar Variablen anpassen und schon bist du produktiv gegangen.

    So, mein Backup ist jetzt doch durch, nach 45 Minuten, der Großbrand im Rechenzentrum konnte nochmal vermieden werden. Was mich aber jetzt interessiert, wie ernst sind die Statistiken im SCP zu nehmen beim Punkt CPU? Ich habe jetzt hier auf zwei Servern jeweils ein Backup gefahren, ein RS (2 Cores) und ein VPS (6 vCores). Die Komprimierung der Daten ist offenbar so rechenintensiv, dass alle Cores gut beschäftigt sind, bis eben die Daten alle komprimiert sind. Jetzt sehe ich mir im SCP die M OP/s an und stelle fest, dass beim RS praktisch konstant 1000 M OP/s angezeigt werden, beim VPS nur ca 500 M OP/s.


    Sind das realistische Zahlen? Das würde dann bedeuten, dass ich meine 50% Steal beim VPS vermutlich voll abbekommen habe. Ich gehe mal stark davon aus, dass das so ist. Das heißt dann aber auch, dass bei rechenintensiven Aufgaben, die ja gelegentlich auch nur auf einem Core laufen können, der RS klare Vorteile hat und unter Umständen mit seinen 2 dedizierten Cores die Aufgabe wesentlich flotter erledigen kann als der VPS mit seinen 6 vCores. Wobei natürlich auch die 6 vCores ihren Vorteil ausspielen können, wenn mehrere Aufgaben gleichzeitig zu erledigen sind oder eben die eine Aufgabe parallelisierbar ist, also mehrere oder alle vCores daran arbeiten können. Beim Backup war das offenbar der Fall, der VPS hatte wesentlich mehr Daten zu verarbeiten und war trotzdem deutlich schneller fertig. Freilich hat er auch viel mehr RAM zur Verfügung.

    Interessante Frage. Ich habe neulich das Backup eines VPS mit gut 20 GiB umgestellt. Beim initialen Vollbackup war eindeutig die gethrottelte (schreibt man das so?) Netzwerkverbindung der Flaschenhals. Auf die CPUs habe ich dann gar nicht mehr geguckt. Außerdem herrscht auf dem VPS schon beim Booten oder beim Docker-Restart 50 % Steal.

    Geht auch über Österreich:

    Zitat

    mehrstufige[r], sowie ko[n]trollierter Zugriff auf das Archiv

    Webo[fb]erfläche für Zugriffe auf das Archiv

    Aus eigener Erfahrung: Eine dreistellige Summe für ein Lektorat auszugeben, ist oft eine gute Investition. Gerade, wenn man sich Zuverlässigkeit und ein Auge für Details auf die Fahne schreiben möchte.

    Sehr gut, dass Du auch die Lösung postest!


    Da ich das ganze auch gerade durch habe: Chameleon 3 und MW 1.35 vertragen sich noch nicht 100 %ig. Du brauchst den aktuellen Master vom Git, wenn Du Icons in den Menus haben willst. Ansonsten habe ich keine weiteren Probleme gefunden. Viel Spaß beim Updaten der Erweiterungen!

    Moiners Leuts!


    Ich habe für ein Charity-Projekt das 50 GiByte kostenlose Angebot i.getspace benutzt. Seit ein paar Tagen wirft das aber Fehler und aktuell scheint der Service nicht administriert zu werden. Lange Rede, kurzer Sinn: Kann jemand Backup-Space empfehlen, der folgende Anforderungen erfüllt?

    * 50 GiB Platz

    * Von Duply ansprechbar (ssh, rsync, webdav, …)

    * Günstig


    Es muss nicht kostenlos sein, die 3,45 monatlich eines deutschen Anbieters für seine Storagebox sind die Schmerzgrenze.


    Frohe Ostern!

    Hat jemand, der in der Lotterie seit Jahren die gleichen Zahlen tippt, eine höhere Chance auf den Jackpot, als jemand der jedes Mal mit anderen Zahlen spielt?

    KOmmt auf die Betrachtung an. Die tatsächlichen Chancen in dieser einen Ziehung sind die gleichen wie in jeder Ziehung. Die Kombinatorik lehrt aber, dass über viele Versuche die Chance auf einen Gewinn steigt. Wenn sechs mal mit einem Würfel gewürfelt wird, ist die Chance, dabei eine 6 zu würfeln etwa 2:3 (1-(1-1/6)^6). Es ist unwahrscheinlich(!Achtung Wortspiel), dass das beim Lottospielen ins Gewicht fällt.