Hoher IO-Wait auf RS 2000 SAS G7SEa1 12M

  • Hallo allerseits,


    ich habe den Eindruck, dass der IO-Wait in den letzten Monaten kontinurierlich gestiegen ist. Das sagen mir nicht nur die immer häufiger werdenden netdata-alerts, sondern auch meine gelegentlichen "Messungen" mittels dd.


    An guten Tagen/Momenten sieht es so aus:


    Wie ihr sehen könnt ist selbst an den "guten Tagen" vorallem die Lesegeschwindgkeit das eigentliche Bottleneck. Ich habe daher ein Ticket im Support aufgemacht, da ich gehofft habe, dass man meine Instanz auf einen anderen Host schieben kann. Als Antwort habe ich bisher nur die Empfehlung bekommen einen Server mit SSD zu wechseln.


    Mir ist schon klar, dass man von einem SAS-Server keine SSD Performance erwarten kann...allerdings finde ich eine Lesegeschwindigkeit von 10MB/s selbst für ein SAS ziemlich lahm. Wie ist eure Erfahrung mit den G7 SAS-Servern? Wie ist eure Lese-/Schreibrate?


    Viele Grüße

    Patrick

  • SCD Danke für den Hinweis. Den fehlenden of-Parameter habe ich übersehen. Habe das Ganze nochmal mit korrekten output auf /dev/null laufen lassen. Die Ergebnisse sind aber im Grunde unverändert.


    Code
    root@mail:~# dd if=./test.file of=/dev/null bs=1M count=1000 iflag=direct
    1000+0 Datensätze ein
    1000+0 Datensätze aus
    1048576000 Bytes (1,0 GB, 1000 MiB) kopiert, 70,0535 s, 15,0 MB/s
    root@mail:~# dd if=./test.file of=/dev/null bs=1M count=1000 iflag=direct
    1000+0 Datensätze ein
    1000+0 Datensätze aus
    1048576000 Bytes (1,0 GB, 1000 MiB) kopiert, 75,9924 s, 13,8 MB/s


    Habe aus Neugier mal den gleichen Versuch mit meinem Uralt-NAS (HP Microserver von 2012) wiederholt. Kein RAID. Kein SSD.

    Code
    root@omv:/pool/Verschiedenes# dd if=./test.file of=/dev/null bs=1M count=1000 iflag=direct
    1000+0 Datensätze ein
    1000+0 Datensätze aus
    1048576000 Bytes (1,0 GB, 1000 MiB) kopiert, 11,7885 s, 88,9 MB/s
    root@omv:/pool/Verschiedenes# dd if=./test.file of=/dev/null bs=1M count=1000 iflag=direct
    1000+0 Datensätze ein
    1000+0 Datensätze aus
    1048576000 Bytes (1,0 GB, 1000 MiB) kopiert, 11,779 s, 89,0 MB/s


    Das mein gut 6 Jahre alter NAS rund sechsmal schneller ist als mein Netcup-Server finde ich etwas deprimierend. Wie sind denn eure Werte so im Vergleich?


    Viele Grüße

    Patrick

  • Vielleicht im Lauf des Jahres einen neueren Server holen?!?


    Mein VPS 1000 G8 Plus:

    Code
    $ dd if=/dev/zero of=./test.file bs=1M count=1000 oflag=direct
    1000+0 records in
    1000+0 records out
    1048576000 bytes (1.0 GB, 1000 MiB) copied, 4.09204 s, 256 MB/s
    $ dd if=./test.file of=/dev/null bs=1M count=1000 iflag=direct
    1000+0 records in
    1000+0 records out
    1048576000 bytes (1.0 GB, 1000 MiB) copied, 1.44503 s, 726 MB/s
  • Hay,


    RS 8000 SAS G7 SE NC SAS


    Code
    root@mail:/home/cmdrxay# dd if=/dev/zero of=./test.file bs=1M count=1000 oflag=direct
    1000+0 Datensätze ein
    1000+0 Datensätze aus
    1048576000 Bytes (1,0 GB) kopiert, 3,21551 s, 326 MB/s
    root@mail:/home/cmdrxay# dd if=./test.file of=/dev/null bs=1M count=1000 iflag=direct
    1000+0 Datensätze ein
    1000+0 Datensätze aus
    1048576000 Bytes (1,0 GB) kopiert, 3,23709 s, 324 MB/s


    Mein zweiter Versuch mit 10 x größerer Filesize hat mich allerdings etwas überrascht...


    Code
    root@mail:/home/cmdrxay# dd if=/dev/zero of=./test.file bs=1M count=10000 oflag=direct
    10000+0 Datensätze ein
    10000+0 Datensätze aus
    10485760000 Bytes (10 GB) kopiert, 35,3726 s, 296 MB/s
    root@mail:/home/cmdrxay# dd if=./test.file of=/dev/null bs=1M count=10000 iflag=direct
    10000+0 Datensätze ein
    10000+0 Datensätze aus
    10485760000 Bytes (10 GB) kopiert, 208,011 s, 50,4 MB/s

    Scheint so, als ob /dev/null langsamer zu bescheiben ist als die HD... :D


    CU, Peter

    Peter Kleemann // https://www.pkleemann.de // +49 621 1806222-0 // Kann Programme, Internet, Netzwerke und Telefon.

  • Code
    root@mail:/home/cmdrxay# dd if=/dev/zero of=./test.file bs=1M count=10000 oflag=direct
    10000+0 Datensätze ein
    10000+0 Datensätze aus
    10485760000 Bytes (10 GB) kopiert, 35,3726 s, 296 MB/s
    root@mail:/home/cmdrxay# dd if=./test.file of=/dev/null bs=1M count=10000 iflag=direct
    10000+0 Datensätze ein
    10000+0 Datensätze aus
    10485760000 Bytes (10 GB) kopiert, 208,011 s, 50,4 MB/s

    Scheint so, als ob /dev/null langsamer zu bescheiben ist als die HD... :D


    CU, Peter

    Schreit nach https://devnull-as-a-service.com/code/. :D

  • Mir ist schon klar, dass man von einem SAS-Server keine SSD Performance erwarten kann...allerdings finde ich eine Lesegeschwindigkeit von 10MB/s selbst für ein SAS ziemlich lahm.

    Einfach nochmal auf die Supportanfrage antworten mit dem Hinweis, dass der Server nachweisbar nicht die gewohnte Performance liefert.

    Wenn du nicht dauerhaft auf die Platte schreibst, sollten diese eine höhere Schreib/Leserate aufweisen.


    https://raw.githubusercontent.…iobench/master/iobench.sh

    Auf RS 1000 G7SEa1 SAS


    sudo ./iobench.sh --megabytes 1024 --sync

  • RS2000 Plus SAS G8:


    Meine Minecraft-Plugins auf SpigotMC (Open Source): www.spigotmc.org/members/mfnalex.175238/#resources

    Discord: discord.jeff-media.com

  • pbinksma : Wie hoch ist denn der I/O-Wait? Pauschal sollte der unter 1% liegen, mal ganz kurze Spikes Richtung 5%. Wenn du 'nen Benchmark fährst, dann gilt das in diesem Moment nicht. Wie hoch ist der %steal?

    "Security is like an onion - the more you dig in the more you want to cry"

  • CmdrXay Mit einer Leserate über 50MB/s im Durchschnitt wäre ich ja schon zufrieden. Bis auf die nächtlichen incremental Backup runs hält sich der IO auf dem Server im Rahmen...umso nerviger ist es, wenn man dann doch mal von der Platte lesen muss ;)


    H6G Ich werde es mit dem Argument nochmal beim Support probieren. Bislang habe ich damit jedoch noch nichts erreicht.


    Hier übrigens mal meine iobench-Resultate:


    und hier die RRDStats...einmal von dieser Woche..

    [Blockierte Grafik: https://public.binksma.de/cpu_week.png]

    ..und hier vom vergangenen Jahr.

    [Blockierte Grafik: https://public.binksma.de/cpu_year.png]


    Ich finde es lässt sich ein klarer Trend erkennen, wonach der iowait im Herbst letzten Jahres deutlich gestiegen ist und sich auf hohem Niveau hält.

  • Das sieht ja gar nicht gut aus. Hast du die Möglichkeit, die Werte mal im Rettungssystem zu testen?


    Eventuell kannst du ja den Support auf diesen Thread hier hinweisen.

    Meine Minecraft-Plugins auf SpigotMC (Open Source): www.spigotmc.org/members/mfnalex.175238/#resources

    Discord: discord.jeff-media.com

  • mfnalex Im ersten Post habe ich die Werte aus dem Rettungssystem gepostet. Die waren minimal besser, aber noch immer weit weg von gut ;) Ich werde außerdem mal einen Hinweis auf diesen Thread an den Support schicken. Vielleicht hilft es ja ;)

  • na da stehe ich mit meinem VPS 500 G8 BF doch ganz gut da :D


    It's me, only me, pure michi 🦆

    RS 1000 SAS G8 | Cyber Quack

    VPS: 50 G7 |B Ostern 2017|200 | Karneval | piko

    WH: SmallEi | Adv17 Family |4000 SE|1000 SE

  • Inzwischen hatte der Support ein Einsehen und hat meine Maschine auf einen anderen Host geschoben...und siehe da. Die Lesegeschwindigkeit hat sich wieder normalisiert :)