IO Performance auf Gen 8 Rootserver SSD

  • Guten Tag,

    ich bin ein neuer netcup Kunde und habe mich einen Rootserver mit SSD und einer Vertragslaufzeit von 12 Monaten entschieden.

    Leider hat der Server eine sehr schwache IO Performance.

    Der Datendurchsatz liegt bei nur 28 MB/s und die Wait on IO steigt dabei auf einen Wert von 50.

    Das Storage scheint überlastet zu sein.


    PS: zum Vergleich habe ich mal einen preisgleichen vServer eines Mitbewerbers verglichen, der auf einen Wert von über 140 MB/s kommt ohne dass es überhaupt oder wenn überhaupt zu einer nennenswerten Wait on IO kommt (max. Wert "2").


  • Danke für eure Rückmeldungen.

    Der Service hat sich bereits zurückgemeldet und Änderungen in die Wege geleitet.

    Ich werde berichten.

    Sehr positiv finde ich auf jeden Fall mal die blitzschnelle Reaktion!

  • Unsere Zufriedenheitsgarantie

    Bevor Sie sich an einen Vertrag mit uns binden, möchten wir, dass Sie von unseren Root-Server-Produkten überzeugt sind und diese zu Ihren Anforderungen passen.

    Sollten Sie innerhalb von 30 Tagen nach der Bestellung mit Ihrem vServer nicht zufrieden sein, können Sie diesen zurückgeben und Sie erhalten die komplette Grundgebühr (Preis pro Monat mal Abrechnungsperiode) zurück erstattet.

    Somit kannst du, falls du mit der Leistung nicht zufrieden bist, innerhalb von 30 Tagen nach Abschluss des Vertrages per Zufriedenheitsgarantie kündigen (telefonisch) und dir wird die Grundgebühr erstattet.


    Du solltest aber umgedingt vorab noch mal mit dem Support Kontakt aufnehmen (Mail o. telefonisch) und denen dein Problem noch mal genau schildern. Denn netcup liegt allgemein noch was an Kundenzufriedenheit und wird sich dementsprechend im Regelfall um eine zeitnahe Lösung des Problems kümmern.

  • Der Support ist wirklich super!

    Der Mitarbeiter hat mir die Sachlage erläutert.


    Da ich Random und synchron getestet habe sind die Ergebnisse i.O.

    Ein lokaler Test (also dedicated) auf einer SATA II angeschlossenen Crucial MX 500 brachte bei mir auch nur 53 MB/s.


    PS: Danke für den Hinweis mit der Zufriedenheitsgarantie.

    Ich werde sie wohl aber nicht nutzen müssen.

  • Sieh dir mal iobench von perryflynn an: https://github.com/perryflynn/iobench


    Als Vergleich mein RS2000 SAS G8 Plus:


    Und mein VPS 2000 G8 Plus mit Optane Cache:

    Meine Minecraft-Plugins auf SpigotMC (Open Source): www.spigotmc.org/members/mfnalex.175238/#resources

    Discord: discord.jeff-media.com

  • Da ich Random und synchron getestet habe sind die Ergebnisse i.O.

    Ein lokaler Test (also dedicated) auf einer SATA II angeschlossenen Crucial MX 500 brachte bei mir auch nur 53 MB/s.


    Ah, ok dir ging es gar nicht um das zufällige lesen&schreiben von Daten.


    Für ein sequentielle lesen&schreiben kannst du mal folgendes durchlaufen lassen:


    schreiben (10GB):

    dd if=/dev/zero of=./test.file bs=1M count=10000 oflag=direct


    lesen (10GB):

    dd if=./test.file of=/dev/null bs=1M count=10000


    "Mittels dem Parameter count=10000 könnt ihr die Größe der Datei anpassen. In diesem Beispiel werden 10.000 * 1 MB geschrieben, sprich, die angesprochen 10 GB an Daten."


    Quelle: webhosterwissen.de



  • doch doch, es ging mir schon um den Härtefall mit Random R+W.

    Nur hatte ich dafür höhere Werte erwartet.

    Im Vergleich zur dedicated SSD und wenn man die Werte mal wirklich nüchtern beatrachtet sind sie noch total OK.

    Und im Hinblick auf den Preis sowieso.

    Ich hatte es einfach im Vergleich zu einem vServer untersucht, welcher einfach deutlich stärkere Storagewerte zeigte.


    Sequenzielle Vorgänge mit dd getestet flutschen bei dem Rootserver ganz ordentlich.


    Ich will da auch gar nicht so sehr benchen.

    Das macht die Zellen doch irgendwann kaputt.


    PS: Danke für den Hinweis mit dem Skript. Werde mir das näher ansehen.


    Vlt. mache ich mal ein paar Messungen eines anspruchsvolleren Testshops

  • netcup liegt allgemein noch was an Kundenzufriedenheit und wird sich dementsprechend im Regelfall um eine zeitnahe Lösung des Problems kümmern.

    Das ist ein sehr wichtiger Punkt wenn man bedenkt in welchen Händen die großen Hoster sind und was man dort überhaupt erwarten kann.

  • Ich brauche einfach eine niedrige TTFB

    Das bedingt einer guten Basis.

    Dass ist bei minimal Pages unabhängig von RAM und CPU

    Da muss die Netzwerkanbindung stimmen und das Storage liefern können.

    Storage ist und war nie dafür gedacht, hier sollte über einen sinnvollen Cache, nach Art der Daten, nachgedacht werden, generell sind "Live" Daten aus dem NFS nie eine gute Idee.


    RAM und CPU haben selten wirklich heute merkbaren Einfluss auf die TTFB, hier geht es eher um die Applikation selbst, gibt Firmen und Tools welche die Anwendung durchleuchten wo in welchen Funktionen die meiste Zeit verbraten wird, hier sind die besten Ergebnisse zu erwarten.