iostat output auf sda nicht passend zu sda1,sda2

  • Guten Abend,


    ich verstehe die Herkunft der Zahlen nicht, kann mir jemand ein Tip geben, woher die hohe svctm und %util Zahl herkommen könnte?


    ich bin verwirrt weil das nur so bei für sda, aber nicht für sda1/2 ausgewiesen ist.

    Ist Disk und es gibt eigentlich keine Performance Probleme.

    VPS Ostern 19 mit Optane Cache (falls das ne Rolle spielt)

    Operating System: Debian GNU/Linux 10 (buster)

    Kernel: Linux 4.19.0-14-amd64


    S.Z.




    # iostat -dx /dev/sda* 30 3

    Linux 4.19.0-14-amd64 03/13/2021 _x86_64_ (4 CPU)


    Device r/s w/s rkB/s wkB/s rrqm/s wrqm/s %rrqm %wrqm r_await w_await aqu-sz rareq-sz wareq-sz svctm %util

    sda 2.97 2.57 41.15 72.24 0.00 5.57 0.02 68.46 0.47 1.46 0.83 13.85 28.13 149.32 82.71

    sda1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.36 0.47 0.00 28.53 4.00 0.37 0.00

    sda2 2.97 2.54 41.14 72.24 0.00 5.57 0.02 68.68 0.47 1.47 0.00 13.85 28.42 0.16 0.09


    Device r/s w/s rkB/s wkB/s rrqm/s wrqm/s %rrqm %wrqm r_await w_await aqu-sz rareq-sz wareq-sz svctm %util

    sda 0.00 0.90 0.00 6.13 0.00 0.63 0.00 41.30 0.00 0.56 0.89 0.00 6.81 990.81 89.17

    sda1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

    sda2 0.00 0.83 0.00 6.13 0.00 0.63 0.00 43.18 0.00 0.56 0.00 0.00 7.36 0.00 0.00


    Device r/s w/s rkB/s wkB/s rrqm/s wrqm/s %rrqm %wrqm r_await w_await aqu-sz rareq-sz wareq-sz svctm %util

    sda 0.00 0.70 0.00 5.07 0.00 0.57 0.00 44.74 0.00 0.62 0.92 0.00 7.24 1316.95 92.19

    sda1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

    sda2 0.00 0.70 0.00 5.07 0.00 0.57 0.00 44.74 0.00 0.62 0.00 0.00 7.24 0.00 0.00



    Nachtrag: ich dachte wenn ich Font Consolas nehme kommt das richtig, wohl irgendwie nicht ...

  • Nachtrag: ich dachte wenn ich Font Consolas nehme kommt das richtig, wohl irgendwie nicht ...

    Dafür gibt es den Code-Button im Editor, sieht so aus: </>


    (Zum eigentlichen Problem kann ich am Handy gerade nichts beitragen.)

    "Wer nur noch Enten sieht, hat die Kontrolle über seine Server verloren." (Netzentenfund)

  • Mit ein wenig Geduld und über ein paar Hinweise kann man der/den genauen Ursache(n) via Google auf die Schliche kommen, welche hardware- und/oder kernel­spezifi­scher Natur sein können (Optane ist "so eine Art Cache-SSD", also kann man hier die Angaben/Kommentare bzgl. SSDs zugrundelegen). Food for thought:

    Im Endeffekt sind die Werte eh' nicht (mehr) aussagekräftig.

    VServer IOPS Comparison Sheet: https://docs.google.com/spreadsheets/d/1w38zM0Bwbd4VdDCQoi1buo2I-zpwg8e0wVzFGSPh3iE/edit?usp=sharing

  • Danke für die Links, dann ist es wohl so


    Auffällig ist auch, dass von 2 VPS, identische Kernel und scheduler, nur eine das Verhalten zeigt.
    Wobei das werde ich nun auf Basis der Information in den Links ignorieren, denn abgesehen vom "zweifelhaften" Monitoring Werten, sehe ich keine Performance Probleme.

  • Gerade mal nachgeschaut: So komische Werte habe ich seit Ende Jänner übrigens auch im Monitoring. Allerdings hat dieses Feld kein Warnlimit, da gibt es andere Dinge die bei mir anschlagen würden.


    Das ist übrigens auch eine Optane-Kiste, ein VPS 1000 G8 Plus. Auf dem laufen u.a. einige MariaDB-Slaves, die durchaus I/O-Last produzieren. Probleme habe ich aktuell aber keine.

    "Wer nur noch Enten sieht, hat die Kontrolle über seine Server verloren." (Netzentenfund)