Hoher Load Wert

  • Hallo allerseits,


    Ich stelle seit einigen Tagen erhöhte Load Werte auf meinem VServer 4000 fest, die zwischen 0,20 un 1,10 schwanken. Das hat zur Folge, dass der Server spürsam langsamer arbeitet.
    Vor einer Woche lagen sie im Durchschnitt bei 0 :) Ich hoste momentan nur 4 Seiten (die wenig Besucher haben) wovon 2 auf MySQL Datenbanken zurückgreifen.


    Hier die aktuelle Ausgabe von ps -aux



    Im Anhang die Ausgabe von htop.


    Liegt das Problem am Node? Ich habe in den letzten Wochen nichts verändert.

  • Load sagt dir nur auf wieviele Prozesse - auf was auch immer - warten. Wenn du Werte hast, die deutlich größer als 1 sind, dann musst du mal gucken, welche Prozesse auf welche Resourcen warten.


    Die Load Anzeige ist maximal Ausdruck, jedenfalls nicht Ursache deines Problems.

  • Auch bedenken sollte man, dass der Load nicht von dir alleine verursacht wird, sondern auch von den Node-Mitbenutzern.
    Ich habe leider auch einen Node erwischt, wo einiges an IO-Wait und Load aufkommt, ohne, dass ich selbst dazu beitrage (ich bin wohl der Traumnodenachbar schlechthin, ich dimensioniere gerne über und nutze den Server nicht wirklich produktiv sondern nur als Hobby).

    Mein Server:
    v(olks)Server 1. Serie: 2,5GHz, 1024MB RAM, 1024MB Swap, 2x60GB-Raid1-HDD, Traffic-Flat
    Node:
    78.46.117.9x | hos-tr2.ex3k4.rz7.hetzner.de

  • Zitat von Artimis;20737

    Auch bedenken sollte man, dass der Load nicht von dir alleine verursacht wird, sondern auch von den Node-Mitbenutzern.


    Genau daraufhin zielte meine Frage. Ich dachte, dieser Load würde nur von mir verursacht, aber alle Prozesse in htop oder top zeigen keine große Aktivität, so dass ich mir diese hohe Load Werte nicht erklären konnte. Und glaubt mir, ich saß oft vor dem Monitor diese Werte zu studieren und zu verfolgen. Vielleicht ist es auch der IO Wait, der auch von anderen verursacht wird.


    Auch ich gehöre zu den Traumnodenachbarn, habe mit dem 4000er eigentlich überdimensioniert. Hoste wie gesagt 4 Webseiten mit sehr wenigen Besuchern. Habe auch nur 3 GB Traffik pro Monat.


    Dann werde ich nach Ablauf meines 12-monatigen Vertrages doch wohl auf einen dedicated Server bei der Konkurrenz wechseln müssen. Hatte mir eigentlich für meine bescheidenen Hostingansprüche mit dem 4000 mehr erhofft.

  • Ich muss auch sagen, dass mein vServer in letzter Zeit sehr langsam arbeitet. Nicht selten muss ich Ewigkeiten auf die Befehlsvervollständigung per Tab warten oder auf die Meldung, dass nano die Datei gespeichert hat. Ein "exit" in der Konsole dauert zwischen 50ms und 20sek(!).



    Durchschnittsdaten des Nodes über 24h:
    CPU-Load: 0.10
    IO-Wait: 2.96


    [Blockierte Grafik: http://img534.imageshack.us/img534/3810/cputag.png][Blockierte Grafik: http://img28.imageshack.us/img28/403/iotag.png]

    Mein Server:
    v(olks)Server 1. Serie: 2,5GHz, 1024MB RAM, 1024MB Swap, 2x60GB-Raid1-HDD, Traffic-Flat
    Node:
    78.46.117.9x | hos-tr2.ex3k4.rz7.hetzner.de

  • Zitat

    Durchschnittsdaten des Nodes über 24h:
    CPU-Load: 0.10
    IO-Wait: 2.96


    Das sind aber die Werte des vServers, nicht des Nodes.


    IO-Wait ergibt sich aus dem CPU-Scheduling. Jeder vServer hat begrenzte CPU-Rechenzyklen die von seiner CPU-Garantie und eventuellen freien Ressourcen auf dem Node abhängen.

  • Ich schliesse mich mal den hohen Load Werten an. Sehr mysteriös.
    Aber bei mir geht's doch sehr ins extreme: Jemand ne Idee woran das liegen könnte?


  • Was sagen die Loads speziell bei dir jetzt, wenn du den spamd killst?
    Da ragt ein Prozess mit 46% Rechenauslastung hervor.

    Mein Server:
    v(olks)Server 1. Serie: 2,5GHz, 1024MB RAM, 1024MB Swap, 2x60GB-Raid1-HDD, Traffic-Flat
    Node:
    78.46.117.9x | hos-tr2.ex3k4.rz7.hetzner.de

  • Ja und wo der die 46% hernimmt ist mir ein Rätsel.


    Nach dem kill OK, allerdings ist mir der Apache noch ein Dorn im Auge:


  • Also ich hatte die letzten Tage auch schon Kontakt mit dem Support wegen hohen IOWaits die gelegentlichen 2 meiner vServer für ein paar Minuten lahmlegen. Mir wurde gesagt das aufgrund des CPU-Scheduling kein anderer Nodebenutzer mein IOWait so hoch treiben könnte und das Problem wahrscheinlich bei mir liegt. Also hab ich mir ein kleines Script geschrieben das alle 60 Sekunden nach Prozessen sucht die auf Daten von der Festplatte warten und mir eine entsprechende Logdatei erstellt. Das ganze lief jetzt fast 3 Tage und ich dachte schon ich hätte die schuldigen Prozesse gefunden. Aber jetzt muss ich feststellen das jeder Prozess völlig unwillkürlich gelegentlich mal hängen bleibt. Also hab ich mal einige Tests durchgeführt. Wie es aussieht bin es wirklich ich der den IOWait hochtreibt, allerdings geht mein IOWait schon auf über 80% wenn ich nur ne 2MB tar.gz Datei entpacke und der ganze Server bleibt dann für 1-2 Minuten stehen. Das gleiche auch wenn ich ein paar Dateien mit dem MC verschiebe. Vor ein paar Wochen hat das alles noch funktioniert. Da beide Server VP3000 sind sollte so was eigentlich nicht passieren und ich denke das etwas mit dem CPU-Scheduling nicht richtig funktioniert. Ich lasse mich allerdings auch gern eines besseren belehren. Schön zu lesen das ich anscheinend nicht der einzige bin der Probleme hat.


    Hängt es eventuell auch hiermit zusammen? Auf dem einem vServer sind ca. 53GB belegt.

    Neun von zehn stimmen in meinem Kopf sagen ich bin nicht verrückt, die zehnte summt die Melodie von Tetris.

  • Ich bitte zu beachten, dass bei über 3000 vServern schnell zwei oder mehr Kunden Probleme haben können die gleich zu sein scheinen. Erfahrungsgemäß sind diese jedoch individuell. Ich bitte also darum nicht die Problem-Phänomene zu vermischen und in diesen eine große Ursache zu sehen. Es kommt immer auf die Details an.


    Zitat

    Hängt es eventuell auch hiermit zusammen? Auf dem einem vServer sind ca. 53GB belegt.


    Das kann gut ein Grund sein. Bitte wenden Sie sich an den Support, damit dieser das prüfen kann. Die Inodes erhöhen wir auf Anfrage kostenlos.

  • Hm, das Phänomen, das Stachi beschreibt, kann ich gut rekonstruieren.
    In Hochzeiten laufen Befehle wie "cd" problemlos, "ls" jedoch haut schon mächtig rein manchmal und lässt bei einem 100kB-Verzeichnis mit 6 Dateien bis zu 2sek auf sich warten. Ebenso das Abspeichern bei Nano. Manchmal dauert dies bis zu 8sek für eine phpinfo.php oder eine Redirect-htaccess.
    Es scheint, dass bei mancher HDD-Nutzung (und sei sie noch so gering) sofort ein massiver IO-Wait entsteht.
    Der Witz ist: Ich habe einen anderen Server, der ähnlich genutzt wird. Dort ist der IO-Wait bei durchschnittlich 0,14 (über den Tag), bein Netcup-Server bei 2,85. Ebenso übrigens der CPU-Load: Dort ist er bei 0,01, während er bei Netcup bei 0,10 liegt.
    An den Inodes liegt es bei mir nicht: 82,5% der mir zugewiesenen Inodes sind frei.

    Mein Server:
    v(olks)Server 1. Serie: 2,5GHz, 1024MB RAM, 1024MB Swap, 2x60GB-Raid1-HDD, Traffic-Flat
    Node:
    78.46.117.9x | hos-tr2.ex3k4.rz7.hetzner.de

  • Zitat von [netcup] Felix;20772

    Ich bitte zu beachten, dass bei über 3000 vServern schnell zwei oder mehr Kunden Probleme haben können die gleich zu sein scheinen. Erfahrungsgemäß sind diese jedoch individuell. Ich bitte also darum nicht die Problem-Phänomene zu vermischen und in diesen eine große Ursache zu sehen. Es kommt immer auf die Details an.


    Ich habe ja auch nicht geschrieben das andere die gleichen Probleme haben:D
    Und ich will ja auch netcup nichts unterstellen. Ich schließe ein Fehler meinerseits noch nicht aus, sondern bin noch fleißig am suchen.


    Also wen df -i nur die Inodes vom vServer anzeigt scheint das wohl nicht das Problem zu sein

    Code
    stachi@vxxxxxxxxxxxxxx:~$ df -i
    Dateisystem           INodes  IBenut.  IFrei IBen% Eingehängt auf
    /dev/hdv1            1000000  181458  818542   19% /


    Also auf dem vServer aus der Testumgebung läuft alles rund, obwohl dort wesentlich speicherintensivere Programme laufen. Dort läuft amavisd-new inklusive spamassassin und clamav und es wird der komplette Mailverkehr von 2 anderen vServer überprüft.

    Neun von zehn stimmen in meinem Kopf sagen ich bin nicht verrückt, die zehnte summt die Melodie von Tetris.

  • Als ich meinen VPS neu hatte, hatte ich ein ähnliches Problem. Alle rund 30 Minuten stieg der IOWait ins Grenzenlose und legte sich nach paar Minuten wieder, und ich selber hatte so ziemlich gar nichts am laufen, was dafür hätte sorgen können. Nach ein paar Tagen hatte sich das Problem dann von alleine behoben, ohne dass ich was geändert hab.


    Das einzig auffällige war, dass eine CPU konstant 100% ausgelastet war (nicht durch einen Prozess von mir), und dass nach den IOWaits alle CPUs für paar Sekunden auf 100% Auslastung gesprungen sind.

    Mensch was bin ich froh, weder SysCP noch Webmin, Confixx oder Plesk benutzen zu müssen!

  • Ok ich gebs jetzt auf. Ich konnte keinen Fehler finden und heute ist es viel schlimmer als sonnst. Mein Load Wert ist vollkommen normal aber der IOWait springt willkürlich hoch und runter. Ich musste schon der Hälfte der Prozesse auf dem Server beenden so das er überhaupt noch benutzbar ist. Alle 5 Minuten bleibt der Gameserver für 10 Sekunden stehen, die Website ist alle paar Minuten down, einfache Befehle wie mc oder htop brauchen Minuten bis was passiert, kopieren von Dateien auf dem Server dauert ewig. Ich glaube das Scheduling funktioniert nicht richtig. Ein ähnliches Problem hatte ich auch schon mal als die neuen Kernel aufgespielt wurden, allerdings hatte sich das nach ein paar Stunden von selbst gelöst.


    Edit:
    Kaum hab ich den Post beendet läuft es wieder relativ normal. Es ist es würde man einen Geist jagen, an manchen Tagen läuft es Stundenlang Problemlos und manchmal geht nichts. Mal sehen wie viele Minuten es diesmal anhält.


    Edit2: Und schon ist der IOWait wieder oben.

    Neun von zehn stimmen in meinem Kopf sagen ich bin nicht verrückt, die zehnte summt die Melodie von Tetris.

  • Ich hab da noch was interessante entdeckt das eventuell mit meinem Problem zusammen hängt.
    Ich habe spaßeshalber mal die HDD Geschwindigkeit mit

    Code
    dd if=/dev/zero of=test2 bs=65536 count=15000 oflag=direct


    geprüft und musste dabei feststellen das mein vServer viel langsamer ist als er mal war.


    Ich habe die Ergebnisse auch mal mit einem anderem VP3000 verglichen zu dem ich zugriff hab. Ich hab den Test insgesamt 6 mal pro Server durchgeführt.
    Man muss hier auch dazu sagen das ich die Test durchgeführt habe während der Server einigermaßen rund lief, ich will nicht wissen wie das Ergebnis in der Zeit aussieht wo fast nichts mehr funktioniert.


    Mein Problem vServer:
    Min: 18,1 MB/s
    Avg: 28,8 MB/s
    Max: 39,4 MB/s


    Anderer VP3000:
    Min: 47,2 MB/s
    Avg: 55,7 MB/s
    Max: 63,8 MB/s


    Ich weiß das diese Werte natürlich nichts über die eigentliche Leistung aussagen, aber ich denke das genau in den Momenten in den Mein vServer hängen bleibt solche "Engpässe" auftreten. Außerdem weiß ich das der Server schon mal mehr geschafft hat.

    Neun von zehn stimmen in meinem Kopf sagen ich bin nicht verrückt, die zehnte summt die Melodie von Tetris.

  • Ich meine immoment auch load-Probleme zu haben


    Ich hab jetzt alles mal außer ein paar Programmen heruntergefahren und der Load bleibt teilweise oben ...
    bei der FP nutzung bekomme ich folgendes :

    Code
    dd if=/dev/zero of=test2 bs=65536 count=15000 oflag=direct
    15000+0 Datensätze ein
    15000+0 Datensätze aus
    983040000 Bytes (983 MB) kopiert, 14,0004 s, 70,2 MB/s



    Direkt nach einem RR (Alle Prozesse/Programme starten)

    Zitat

    top - 09:45:05 up 0 min, 1 user, load average: 1.15, 0.26, 0.09
    Tasks: 56 total, 4 running, 50 sleeping, 0 stopped, 2 zombie
    Cpu(s): 18.9%us, 8.0%sy, 1.4%ni, 64.1%id, 7.0%wa, 0.0%hi, 0.6%si, 0.0%st
    Mem: 1048576k total, 398460k used, 650116k free, 0k buffers
    Swap: 1048576k total, 0k used, 1048576k free, 0k cached


    Zitat

    top - 09:48:08 up 3 min, 1 user, load average: 0.13, 0.25, 0.11
    Tasks: 50 total, 1 running, 47 sleeping, 0 stopped, 2 zombie
    Cpu(s): 9.1%us, 6.1%sy, 0.0%ni, 82.7%id, 1.6%wa, 0.0%hi, 0.4%si, 0.0%st
    Mem: 1048576k total, 395956k used, 652620k free, 0k buffers
    Swap: 1048576k total, 0k used, 1048576k free, 0k cached


    Wobei ich sehe gerade, dass der load nach einem Reboot weitaus geringer ist ... trotzdem ... habt ihr vielleicht eine Idee woran das liegen kann?
    Als ich den Server bekam hatte ich immer einen Load von ziemlich ca. 0.02 0.02 0.01 auf jeden alles < 0.05 (im idle)


    Mal eine Frage was hat es mit diesem "Load" eigentlich auf sich?
    Ich weiß zu hoch ist nicht gut, ich weiß, dass es die "Wartezeit" anzeigt die Prozesse für die CPU warten müssen.


    ich weiß nicht welcher wert wofür steht (1.11 2.22 3.33)

  • Zomg


    Ja ... ich hab mal angefangen zu lesen, dann aber keine Lust mehr gehabt und eben seh ich, dass sich meine Frage ja erledigt hat.


    Nagut solange alse mein load < 1 ist ist ja alles prima =)


    Dachte schon mit 0.40 - 0.60 hätte ich "viel" ^^



    Dann kann ich in dem Thread leider (Gott sei Dank) nichtmehr mitreden ;)



    MfG