Upgrade auf SSD?

  • Hallo,


    Aktuell haben wir eine SAS Festplatte; würde sich eine SSD in folgendem Szenario lohnen?:

    Für ein neues Feature haben wir eine große Anzahl an Dateien ("Kacheln" für eine Rasterkarte, insgesamt 1057446 weltweit) auf unserem Server, die von den Benutzern in Zukunft automatisiert heruntergeladen werden können. Ein typischer Benutzer würde für beispielsweise Europa 102971 einzelne Dateien automatisiert herunterladen. Die einzelnen Dateien sind relativ klein, im Schnitt nur etwa 6KB.

    Das ist notwendig, da die Anwendung offline funktionieren muss. D.h. aber, dass (je nach Nutzer) relativ viel Traffic mit vielen kleinen Dateien entstehen kann.

    Wäre ein Upgrade auf eine SSD sinnvoll? Wenn ja, wie würde das laufen? Da die root Server ja auch virtuelle Maschinen sind müsste man die virtuelle Maschine einfach auf eine neue Hardware verschieben können, oder sind hier Probleme zu erwarten (wegen anderem Prozessor beispielsweise)?


    Vielen Dank schonmal!

  • Ob das für deine Anwedung sinnvoll ist kann ich nicht beurteilen, was ich sagen kann ist aber: du wirst einen neuen Server bestellen müssen und dann manuell (rsync, Snapshots, dd über SSH, etc.) umziehen müssen und kriegst dann natürlich auch eine neue IP :/


    Ein nachträgliches "Upgrade" auf SSD ist bei netcup leider nicht möglich.

    Meine Minecraft-Plugins auf SpigotMC (Open Source): www.spigotmc.org/members/mfnalex.175238/#resources

    Discord: discord.jeff-media.com

  • Je nach Serverart, -kosten und Plattengröße hätte ich ggf. auch interesse an dem alten SAS Server.


    Ob es Probleme gibt, hängt wohl von der Anzahl gleichzeitiger User ab. Die kannst du ja in den Logs ersehen.

    Ich habe damals die SAS Server bereits für normale Anwendungen als zu lahm empfunden. Heute bräuchte ich dann einen als Datengrab.

  • Ich würde mir eher Gedanken machen, ob man das nicht schon serverseitig "packen" oder in einen einzelnen Stream übertragen kann. Weil 100.000 einzelne Requests klingt unschön. Da ist so viel Overhead enthalten, das lohnt sich doch niemals, wenn das Tausende User machen.

    "Wer nur noch Enten sieht, hat die Kontrolle über seine Server verloren." (Netzentenfund)

  • Ich würde mir eher Gedanken machen, ob man das nicht schon serverseitig "packen" oder in einen einzelnen Stream übertragen kann. Weil 100.000 einzelne Requests klingt unschön. Da ist so viel Overhead enthalten, das lohnt sich doch niemals, wenn das Tausende User machen.

    Dazu gab's hier mal ein paar Überlegungen, was HTTP/2 betrifft; wichtig dabei ist, dass immer der Anwendungsfall (hier: individuelle Änderungen bei Kacheln) mitbetrachtet werden muss:

    Our current practice of concatenating multiple files into bundles makes it difficult for the browser to effectively cache our code: changing a single line of code in one module requires the whole bundled file to be re-downloaded. As HTTP/2’s multiplexing makes requests relatively inexpensive, we can opt to split our code into smaller bundles and make better use of caching to ensure our apps are making efficient use of users’ bandwidth.

    VServer IOPS Comparison Sheet: https://docs.google.com/spreadsheets/d/1w38zM0Bwbd4VdDCQoi1buo2I-zpwg8e0wVzFGSPh3iE/edit?usp=sharing