Performacevergleich SSD und SAS?

  • Mich würde interessieren, ob mal jemand den Mehrnutzen von SAS gegenüber SSD im Livebetrieb bei Netcup für sich gemessen oder anderswie festgestellt hat. Theoretisch und für sich alleine sind ja SSD-Laufwerke gegenüber SAS-Laufwerken um einen nennenswerten Faktor schneller. Wie wirkt sich das aber in der Praxis aus? Mir ist klar, dass das insbesondere von den eigenen Randbedingungen abhängt. Sprich: Ist die Applikation lahm oder hat relativ wenig Festplattenzugriffe, wird sich der Geschwindigkeitsvorteil von SSD kaum auswirken. Aber wie sieht es mit anderen Faktoren aus? Zum Beispiel: Sind User, deren Applikationen häufige Festplattenzugriffe erfordern, eher bei den SSD-Bestellern zu finden, sind SSD-Laufwerke schon deshalb eher ausgelastet, was den Vorteil gegenüber SAS möglicherweise relativieren könnte. Wie muss man sich das vorstellen? Kann jemand von nennenswerten Erkenntnissen aus der Praxis berichten?

  • Ich will ja nichts sagen aber es reichen schon 6 SAS Platten mit 15.000rpm in einem RAID-Z3 Verbund um 1,80Gbit I/O zuerhalten. Das ist glaub ich schnell genug und wenn du meinetwegen 16 Platten nimmst diese jeweils zu 8 Stück in RAID0 verbindest und oben drauf RAID1 dann sollte durchaus mehr I/O drin sein ausser Netcup nutzt nur Nearline SAS, 7.200rpm oder 10.000rpm. Scheinbar zieht Netcup momentan ja nur auf IOPS ab, die sie ja nicht mal in Form von Zahlen zur Produkt beschreibung beifügen. SSD sind meinet wegen für Datenbanken oder Cache ganz oke aber darauf normale Server laufen zulassen noch viel zu früh, SAS genügt in allen Fällen eigentlich ausser den beiden anderen zuvor genannten.

  • Guten Tag,


    Quote

    Scheinbar zieht Netcup momentan ja nur auf IOPS ab, die sie ja nicht mal in Form von Zahlen zur Produkt beschreibung beifügen.

    die Benchmarks sind in Arbeit. Die ersten wurden ja bereits veröffentlicht.


    Sobald wir Erfahrungswerte über einen längeren Zeitraum haben, werden wir Mindestwerte für IOPS garantieren. Da wollen wir ganz klar hin. Denn alles andere sind wirklich schwammige Aussagen. Hier bitten wir ein wenig um Geduld.



    VG Felix Preuß

  • Mich würde das Thema auch interessieren, ich finde die SSD-Versionen sind etwas klein geraten.

    Das war auch mein erster Gedanke. Gegenüber dem vergleichbaren Angebot der v6-Reihe wurde die SSD-Kapazität halbiert, dafür im Preis um 50% rauf. Die 2GB mehr Arbeitsspeicher (8GB statt 6GB) wiegen das für mich nicht auf. Und die 99,9% Verfügbarkeit (statt 99,6%) sind zwar prinzipiell gut, aber letzlich muss man seine Systeme ohnehin spiegeln um Hochverfügbarkeit zu realisieren.


    Für mich besonders dumm: Ich wollte diese Woche zu meinem Server der v6-Reihe einen identischen hinzubuchen, was ja nun nicht mehr geht. Leider lies sich der Support nicht dazu bewegen für einen langjährigen Bestandskunden hier eine Ausnahme zu machen.


    Ich muss jetzt also für einen Rootserver mit dedizierten Kernen und 120 GB SSD nun von einem Tag auf den nächsten das Dreifache(!) bezahlen. I'm not amused.

  • Guten Abend,


    Quote

    Mich würde das Thema auch interessieren, ich finde die SSD-Versionen sind etwas klein geraten.

    SSDs werden üblicherweise eingesetzt wenn viel IO-Durchsatz und kurze Latenzen gebraucht werden. Für viel Storage nutzt man üblicher Weise andere Festplatten. Hier ist die SAS-Variante sicherlich eine gute Alternative, da SAS schneller als SATA ist.


    Wir haben die SSDs bewusst klein angesetzt, da so insgesamt weniger IO-Last je vServer auf den Nodes produziert wird. Dadurch steht insgesamt mehr Performance allen vServern zur Verfügung. Natürlich haben wir auch andere Maßnahmen ergriffen, wie z.B. mehrere Festplatten parallel zu schalten um die Performance zu erhöhen und neue Server SSD-Modelle einzusetzen. Billige Desktop-SSDs kommen bei uns generell nicht zum Einsatz.


    Kunden die bei uns SSD-Festplatten gebucht haben belegen im Schnitt weit unter 100 GB an Speicherplatz. Die vServer werden als klassische Compute-Einheit genutzt. Genau dafür sind auch die neuen SSD-Varianten gedacht. Bislang ist der IO-Durchsatz und die Latenz bei der Gen7 deutlich besser im Vergleich zu den Vorgängerversionen.



    Mit freundlichen Grüßen


    Felix Preuß

  • Einen Performance-Vergleich zwischen SSD und SAS kann ich leider nicht abliefern.


    Eventuell reichen aber schon folgende Testwerte zum RS6000 mit SAS-Festplatte:



    Den Server RS6000 mit SAS-Festplatte hatte ich mir letzte Woche bestellt.

  • RS 1000 G7 SAS



  • RS 1000 G7 SAS



    denis1969
    Bist du sicher, dass du auf einem RS1000 SAS den Test durchgeführt hast? Denn solche Werte erreicht man doch nur mit SSD-Festplatten.


    Auch sehen die beiden letzten Werte deines Auszugs etwas komisch aus. Also nicht realistisch. Denn der Lesevorgang aus dem Cache ist laut deinem Auszug langsamer als der Lesevorgang direkt von der Platte.

  • denis1969
    Eventuell bist du in der glücklichen Lage zwar den Tarif RS1000 SAS gebucht zu haben, hast aber eventuell tatsächlich einen RS1000 SSD mit der Plattengröße des SAS bekommen. Denn die Testwerte sehen ganz danach aus.

  • Was spricht dagegen diese Geschwindigkeit mit SAS-Platten zu erreichen?


    Der Mietpreis pro GB.


    An Hand folgender Berechnung kann man wohl recht gut erkennen, was dagegen spricht, diese Geschwindigkeit auch mit SAS-Platten bezogen auf die beiden folgenden Produkte zu erreichen:


    - RS 8000 G7 SSD mit einer Plattengröße von 240 GB für 46,99 Euro entspricht 0,20 Euro pro GB
    - RS 8000 G7 SAS mit einer Plattengröße von 1,5 TB = 1536 GB für 46,99 Euro entspricht 0,03 Euro pro GB


    Wie man auch eventuell gut erkennen kann, ist der Server RS 8000 G7 SSD gegenüber dem Server RS 8000 G7 SAS aufgerundet um den Faktor 7 mal teurer pro GB.

  • Aha,
    die Realität sieht scheinbar anders aus:


    hdparm -tT --direct /dev/vda1


    /dev/vda1:
    Timing O_DIRECT cached reads: 408 MB in 2.01 seconds = 202.58 MB/sec
    Timing O_DIRECT disk reads: 174 MB in 3.07 seconds = 56.64 MB/sec


    Das ist ein vServer L v6 mit SSD.

  • Hier schaut es deutlich besser aus:



    vServer M V6


    PHP
    1. hdparm -tT --direct /dev/vda1
    2. /dev/vda1:
    3. Timing O_DIRECT cached reads: 1666 MB in 2.00 seconds = 832.82 MB/sec
    4. Timing O_DIRECT disk reads: 4096 MB in 1.78 seconds = 2305.93 MB/sec



    Viele Grüße
    Tim

  • Toll,
    scheinbar habe ich wieder Pech mit lahmen IO.
    Der erste vServer hat normale HDD's und ist noch langsamer. Da dachte ich die SSDs bringen ordentlich was, aber Pustekuchen. Scheinbar wieder auf einem überlasteten Node gelandet. :(

  • Ich habe noch mal fix gemessen:



    netcup vServer M V6 (SSD):



    die mit der Wolke im Logo:



    Das ist schon deutlich schneller, die Kiste ist allerdings auch etwas teurer.

  • Mal zum Vergleich: