Hoher IO-Wait auf RS 2000 SAS G7SEa1 12M

  • Hallo allerseits,


    ich habe den Eindruck, dass der IO-Wait in den letzten Monaten kontinurierlich gestiegen ist. Das sagen mir nicht nur die immer häufiger werdenden netdata-alerts, sondern auch meine gelegentlichen "Messungen" mittels dd.


    An guten Tagen/Momenten sieht es so aus:


    Wie ihr sehen könnt ist selbst an den "guten Tagen" vorallem die Lesegeschwindgkeit das eigentliche Bottleneck. Ich habe daher ein Ticket im Support aufgemacht, da ich gehofft habe, dass man meine Instanz auf einen anderen Host schieben kann. Als Antwort habe ich bisher nur die Empfehlung bekommen einen Server mit SSD zu wechseln.


    Mir ist schon klar, dass man von einem SAS-Server keine SSD Performance erwarten kann...allerdings finde ich eine Lesegeschwindigkeit von 10MB/s selbst für ein SAS ziemlich lahm. Wie ist eure Erfahrung mit den G7 SAS-Servern? Wie ist eure Lese-/Schreibrate?


    Viele Grüße

    Patrick

  • SCD Danke für den Hinweis. Den fehlenden of-Parameter habe ich übersehen. Habe das Ganze nochmal mit korrekten output auf /dev/null laufen lassen. Die Ergebnisse sind aber im Grunde unverändert.


    Code
    1. root@mail:~# dd if=./test.file of=/dev/null bs=1M count=1000 iflag=direct
    2. 1000+0 Datensätze ein
    3. 1000+0 Datensätze aus
    4. 1048576000 Bytes (1,0 GB, 1000 MiB) kopiert, 70,0535 s, 15,0 MB/s
    5. root@mail:~# dd if=./test.file of=/dev/null bs=1M count=1000 iflag=direct
    6. 1000+0 Datensätze ein
    7. 1000+0 Datensätze aus
    8. 1048576000 Bytes (1,0 GB, 1000 MiB) kopiert, 75,9924 s, 13,8 MB/s


    Habe aus Neugier mal den gleichen Versuch mit meinem Uralt-NAS (HP Microserver von 2012) wiederholt. Kein RAID. Kein SSD.

    Code
    1. root@omv:/pool/Verschiedenes# dd if=./test.file of=/dev/null bs=1M count=1000 iflag=direct
    2. 1000+0 Datensätze ein
    3. 1000+0 Datensätze aus
    4. 1048576000 Bytes (1,0 GB, 1000 MiB) kopiert, 11,7885 s, 88,9 MB/s
    5. root@omv:/pool/Verschiedenes# dd if=./test.file of=/dev/null bs=1M count=1000 iflag=direct
    6. 1000+0 Datensätze ein
    7. 1000+0 Datensätze aus
    8. 1048576000 Bytes (1,0 GB, 1000 MiB) kopiert, 11,779 s, 89,0 MB/s


    Das mein gut 6 Jahre alter NAS rund sechsmal schneller ist als mein Netcup-Server finde ich etwas deprimierend. Wie sind denn eure Werte so im Vergleich?


    Viele Grüße

    Patrick

  • Vielleicht im Lauf des Jahres einen neueren Server holen?!?


    Mein VPS 1000 G8 Plus:

    Code
    1. $ dd if=/dev/zero of=./test.file bs=1M count=1000 oflag=direct
    2. 1000+0 records in
    3. 1000+0 records out
    4. 1048576000 bytes (1.0 GB, 1000 MiB) copied, 4.09204 s, 256 MB/s
    5. $ dd if=./test.file of=/dev/null bs=1M count=1000 iflag=direct
    6. 1000+0 records in
    7. 1000+0 records out
    8. 1048576000 bytes (1.0 GB, 1000 MiB) copied, 1.44503 s, 726 MB/s
  • Hay,


    RS 8000 SAS G7 SE NC SAS


    Code
    1. root@mail:/home/cmdrxay# dd if=/dev/zero of=./test.file bs=1M count=1000 oflag=direct
    2. 1000+0 Datensätze ein
    3. 1000+0 Datensätze aus
    4. 1048576000 Bytes (1,0 GB) kopiert, 3,21551 s, 326 MB/s
    5. root@mail:/home/cmdrxay# dd if=./test.file of=/dev/null bs=1M count=1000 iflag=direct
    6. 1000+0 Datensätze ein
    7. 1000+0 Datensätze aus
    8. 1048576000 Bytes (1,0 GB) kopiert, 3,23709 s, 324 MB/s


    Mein zweiter Versuch mit 10 x größerer Filesize hat mich allerdings etwas überrascht...


    Code
    1. root@mail:/home/cmdrxay# dd if=/dev/zero of=./test.file bs=1M count=10000 oflag=direct
    2. 10000+0 Datensätze ein
    3. 10000+0 Datensätze aus
    4. 10485760000 Bytes (10 GB) kopiert, 35,3726 s, 296 MB/s
    5. root@mail:/home/cmdrxay# dd if=./test.file of=/dev/null bs=1M count=10000 iflag=direct
    6. 10000+0 Datensätze ein
    7. 10000+0 Datensätze aus
    8. 10485760000 Bytes (10 GB) kopiert, 208,011 s, 50,4 MB/s

    Scheint so, als ob /dev/null langsamer zu bescheiben ist als die HD... :D


    CU, Peter

  • Code
    1. root@mail:/home/cmdrxay# dd if=/dev/zero of=./test.file bs=1M count=10000 oflag=direct
    2. 10000+0 Datensätze ein
    3. 10000+0 Datensätze aus
    4. 10485760000 Bytes (10 GB) kopiert, 35,3726 s, 296 MB/s
    5. root@mail:/home/cmdrxay# dd if=./test.file of=/dev/null bs=1M count=10000 iflag=direct
    6. 10000+0 Datensätze ein
    7. 10000+0 Datensätze aus
    8. 10485760000 Bytes (10 GB) kopiert, 208,011 s, 50,4 MB/s

    Scheint so, als ob /dev/null langsamer zu bescheiben ist als die HD... :D


    CU, Peter

    Schreit nach https://devnull-as-a-service.com/code/. :D

  • Mir ist schon klar, dass man von einem SAS-Server keine SSD Performance erwarten kann...allerdings finde ich eine Lesegeschwindigkeit von 10MB/s selbst für ein SAS ziemlich lahm.

    Einfach nochmal auf die Supportanfrage antworten mit dem Hinweis, dass der Server nachweisbar nicht die gewohnte Performance liefert.

    Wenn du nicht dauerhaft auf die Platte schreibst, sollten diese eine höhere Schreib/Leserate aufweisen.


    https://raw.githubusercontent.…iobench/master/iobench.sh

    Auf RS 1000 G7SEa1 SAS


    sudo ./iobench.sh --megabytes 1024 --sync

  • RS2000 Plus SAS G8:


    RS 2000 Plus SAS G8 | VPS 2000 G8 Plus | VPS Ibiza/16 Years | 3x VPS 200 G8 | EiWoMiSau

    www.jeff24.de - www.serioese-alternative.de - www.jeff-media.de

  • pbinksma : Wie hoch ist denn der I/O-Wait? Pauschal sollte der unter 1% liegen, mal ganz kurze Spikes Richtung 5%. Wenn du 'nen Benchmark fährst, dann gilt das in diesem Moment nicht. Wie hoch ist der %steal?

  • CmdrXay Mit einer Leserate über 50MB/s im Durchschnitt wäre ich ja schon zufrieden. Bis auf die nächtlichen incremental Backup runs hält sich der IO auf dem Server im Rahmen...umso nerviger ist es, wenn man dann doch mal von der Platte lesen muss ;)


    H6G Ich werde es mit dem Argument nochmal beim Support probieren. Bislang habe ich damit jedoch noch nichts erreicht.


    Hier übrigens mal meine iobench-Resultate:


    und hier die RRDStats...einmal von dieser Woche..

    [Blocked Image: https://public.binksma.de/cpu_week.png]

    ..und hier vom vergangenen Jahr.

    [Blocked Image: https://public.binksma.de/cpu_year.png]


    Ich finde es lässt sich ein klarer Trend erkennen, wonach der iowait im Herbst letzten Jahres deutlich gestiegen ist und sich auf hohem Niveau hält.

  • Das sieht ja gar nicht gut aus. Hast du die Möglichkeit, die Werte mal im Rettungssystem zu testen?


    Eventuell kannst du ja den Support auf diesen Thread hier hinweisen.

    RS 2000 Plus SAS G8 | VPS 2000 G8 Plus | VPS Ibiza/16 Years | 3x VPS 200 G8 | EiWoMiSau

    www.jeff24.de - www.serioese-alternative.de - www.jeff-media.de

  • na da stehe ich mit meinem VPS 500 G8 BF doch ganz gut da :D


    It's me, only me, pure michi

    RS: M v5a1 24M

    VPS: 50 G7 |100 G7SEa1 12M |B Ostern 2017

    WH: 1000 BETA | Adv17 Webhosting Spezial Family | Expert Spezial 2016

  • Inzwischen hatte der Support ein Einsehen und hat meine Maschine auf einen anderen Host geschoben...und siehe da. Die Lesegeschwindigkeit hat sich wieder normalisiert :)