Server administrieren - wo fange ich an?

  • Apropos 1GB RAM. Bei einem OS/2 Warp PC, der eine Fertigungsanlage steuern und nebenbei Messdaten per TCP/IP empfangen, auswerten, anzeigen, speichern und an einen Oracle-Datenbankserver übertragen musste, habe ich den Swap deaktiviert, nachdem der Kunde mir für eine weitere Linie einen PC mit 128MB RAM hingestellt hat. Die Teile haben schon mit 32 MB RAM nicht mehr geswappt. Naja, sonst wäre er für die Aufgabe auch nicht tauglich gewesen. ;) Und selbst diese, aus heutiger Sicht lahme, alte Kiste, hätte sich mit der Erfassung von so ein paar Daten alle 5 Minuten sicher zu Tode gelangweilt.

  • Bei einem OS/2 Warp PC...

    Ja. Das waren noch Zeiten.

    Meinen ersten privaten PC hatte ich bei Vobis gekauft. (Kennt den Laden noch jemand?) Da war damals (neben Windows) auch OS/2 im Dual-Boot als Hauptsystem installiert.

    500 MB Festplatte. 8 MB RAM, 60 MHz CPU (Ja. das waren die MB und MHz Zeiten :) )

    Und selbst diese, aus heutiger Sicht lahme, alte Kiste, hätte sich mit der Erfassung von so ein paar Daten alle 5 Minuten sicher zu Tode gelangweilt.

    Ja, nur für munin alleine reicht das eine GB natürlich dicke aus.

  • Werde ich als munin-Server behalten. :) Evtl. passt ja noch was drauf.

    Ich werde mir noch UptimeKuma drauf installieren, denke das müsste dann auch noch reichen, oder?
    Was wird denn genau „belastet“ wenn ich bsp. 100 IPs / Domains gleichzeitig pinge?

    Bei nur 1 GB RAM habe ich mir aber lieber doch mal einen swap angelegt: (Im Ubuntu-Image ist der off, wie's bei Debian aussieht, weiß ich nicht)

    Hatte ich auch überlegt, aber seit meinem swap-Chaos bin ich da ein wenig skeptisch. Leider habe ich keine längere Grafik, weil ich meinen alten Munin schon platt gemacht habe, und der neue erst seit ein paar Stunden läuft. Aber wie das folgende Bild sieht das auf meinem 8 GB VPS seit Wochen aus:

    [RS] 2000 G9 | Cyber Quack

    [VPS] 2000 ARM G11 | 1000 G9 | 200 G8 | Secret | A | mikro G11s | 4x nano G11s
    [WH] 8000 SE | 4000 SE | 2000 SE

  • Ich werde mir noch UptimeKuma drauf installieren, denke das müsste dann auch noch reichen, oder?
    Was wird denn genau „belastet“ wenn ich bsp. 100 IPs / Domains gleichzeitig pinge?

    Hatte ich auch überlegt, aber seit meinem swap-Chaos bin ich da ein wenig skeptisch. Leider habe ich keine längere Grafik, weil ich meinen alten Munin schon platt gemacht habe, und der neue erst seit ein paar Stunden läuft. Aber wie das folgende Bild sieht das auf meinem 8 GB VPS seit Wochen aus:

    Ich persönlich hatte Probleme mit Uptime Kuma (als Docker) auf ein Oracle Free Tier Amd (also 1GB Ram und 1 Core) + Portainer Agent.

    Der ist mir häufiger abgestürzt und war immer voll ausgelastet.

    Kann aber auch an Oracle liegen (die Free AMDs sind da ein wenig komisch) und auch an Docker.


    Wäre aber gut wenn es geht, hatte mir auch schon überlegt einen Str*to dafür zu holen - im Moment Monitorr sich der Server selbst + von Zuhause (aber der 'Server' läuft z.B. im Urlaub nicht) - denke aber auch über einen stärkeren nach, da ich an sich gerne Prometheus dann auch dahin auslagern will (was ein wenig mehr Leistung als Munin braucht - selbst für nur 5 Nodes - brauche die Push Möglichkeit, da ich den PI und Server Zuhause nicht mit dem RS verbinden will (weder per VPN noch per Port Freigabe)

  • Hatte ich auch überlegt, aber seit meinem swap-Chaos bin ich da ein wenig skeptisch. Leider habe ich keine längere Grafik, weil ich meinen alten Munin schon platt gemacht habe, und der neue erst seit ein paar Stunden läuft. Aber wie das folgende Bild sieht das auf meinem 8 GB VPS seit Wochen aus:

    Hattest du da auch die swappiness runtergeschraubt, oder bei 60% belassen? (s.o.)

    Für ein Desktop-Linux mag dieser Standardwert ja noch OK sein, aber für einen Server ist er m.E. viel zu hoch. 10-20% langen da völlig.

    Ein Server muss eigentlich nur dann auslagern, wenn es unumgänglich ist.

  • Hattest du da auch die swappiness runtergeschraubt, oder bei 60% belassen? (s.o.)

    Für ein Desktop-Linux mag dieser Standardwert ja noch OK sein, aber für einen Server ist er m.E. viel zu hoch. 10-20% langen da völlig.

    Ein Server muss eigentlich nur dann auslagern, wenn es unumgänglich ist.

    Nein, vielleicht richte ich es die Tage nochmal ein...

    Aktuell beobachte ich UptimeKuma über Munin. Beeindruckend, was ein paar Pings so an RAM fressen... Der CPU bleibt unbeeindruckt.

    Ist es eigentlich verboten fremde Seiten zu pingen oder ähnliches? Muss ich damit rechnen das die IP meines Servers bei solchen "Aktionen" gebannt werden kann?

    [RS] 2000 G9 | Cyber Quack

    [VPS] 2000 ARM G11 | 1000 G9 | 200 G8 | Secret | A | mikro G11s | 4x nano G11s
    [WH] 8000 SE | 4000 SE | 2000 SE

  • Ist es eigentlich verboten fremde Seiten zu pingen oder ähnliches? Muss ich damit rechnen das die IP meines Servers bei solchen "Aktionen" gebannt werden kann?

    Solange du es nicht übertreibst, sollte es eigentlich ok sein. Alle 60 Sekunden einen HEAD Request dürfte niemanden schaden. Könnte höchstens sein, dass sie nur bestimmte User Agents zulassen und dich daher aussperren. Aber sonst ist es ja eigentlich egal, ob du die Seite jetzt über einen Browser aufrufst oder über dein Monitoring Tool, wenn sie sowieso öffentlich erreichbar ist.

  • Solange du es nicht übertreibst, sollte es eigentlich ok sein.

    Joa... Nachdem ich gesehen habe, das UptimeKuma sogar „Suchwort“ anbietet, monitore ich jetzt eine bestimmte Seite 8 Mal mit einer Frequenz von 300 ms...

    [RS] 2000 G9 | Cyber Quack

    [VPS] 2000 ARM G11 | 1000 G9 | 200 G8 | Secret | A | mikro G11s | 4x nano G11s
    [WH] 8000 SE | 4000 SE | 2000 SE

  • Nein, vielleicht richte ich es die Tage nochmal ein...

    Aktuell beobachte ich UptimeKuma über Munin. Beeindruckend, was ein paar Pings so an RAM fressen... Der CPU bleibt unbeeindruckt.

    Ist es eigentlich verboten fremde Seiten zu pingen oder ähnliches? Muss ich damit rechnen das die IP meines Servers bei solchen "Aktionen" gebannt werden kann?

    Zu dem ob es erlaubt ist - ja solange man es nicht übertreibt, so wie hier geschrieben.

    Monitore z.B. auch Netcup selber ;) und das Forum..

    Zu dem RAM, das war bei mir auch das Problem ca. 20 HTTP Sachen, 2 DNS (Netcup DNS Domains) + Docker (auf Oracle mir 1 GB RAM)

  • Hm. Ich überlege gerade ob ich doch noch auf meinen VPS 200 G8 umziehe, wenn ich meinen munin Master und UptimeKuma auf einem Server laufen lassen will. Der hat auch nur 1 CPU, aber halt 2 GB RAM... Aber eigentlich wollte ich da am Samstag Wiki.js rauf schmeißen.

    [RS] 2000 G9 | Cyber Quack

    [VPS] 2000 ARM G11 | 1000 G9 | 200 G8 | Secret | A | mikro G11s | 4x nano G11s
    [WH] 8000 SE | 4000 SE | 2000 SE

    Gefällt mir 1
  • Uptime Kuma ist halt eine NodeJS Applikation. Diese sind generell sehr RAM lastig. Da würde ich schon eher mit 2 GB rechnen. Läuft z.B. auf einem VPS 200 wunderbar. Zumal, wenn man auf dem Server auch noch andere Dinge laufen hat (wie z.B. Munin). 1 GB ist dann doch etwas wenig, wenn dann tatsächlich etwas produktiv darauf laufen soll. Das frisst jetzt auch kein Loch in den Geldbeutel, sorgt aber dafür, dass man etwas ruhiger schlafen kann, weil man noch etwas Puffer hat.


    Ich selbst achte bei der Server Auswahl eigentlich immer darauf, dass der RAM Bedarf im Durschnitt nicht höher als 60% ist. Das ist erfahrungsgemäß ein recht guter Wert.

  • Hm. Ich überlege gerade ob ich doch noch auf meinen VPS 200 G8 umziehe, wenn ich meinen munin Master und UptimeKuma auf einem Server laufen lassen will. Der hat auch nur 1 CPU, aber halt 2 GB RAM... Aber eigentlich wollte ich da am Samstag Wiki.js rauf schmeißen.

    Mach das. Installiere aber nicht zuviele Dinge auf einem einzigen Server. Verteil das lieber. Unterschätze nie die menschlichen Fehler. Dann ist nämlich nicht immer direkt alles down ;)

  • Hattest du da auch die swappiness runtergeschraubt, oder bei 60% belassen? (s.o.)

    Für ein Desktop-Linux mag dieser Standardwert ja noch OK sein, aber für einen Server ist er m.E. viel zu hoch. 10-20% langen da völlig.

    Ein Server muss eigentlich nur dann auslagern, wenn es unumgänglich ist.

    Die Swappiness beeinflusst nicht, wann der Server auslagert, sondern nur was er bevorzugt auslagert. Also "anonymous" pages vs filecache pages. Anonymous sind z.B. Daten, die von Programmen erzeugt und im RAM gespeichert werden.


    Und da gibt es - je nach Verwendungsart eines Servers - durchaus auch Fälle, wo du mit einem Wert von 100 eventuell besser fährst als mit 10. Wenn z.B. viele IO-lastige Anwendungen laufen oder wenn irgendwelche Hintergrundprozesse laufen, die eigentlich gerade gar nicht gebraucht werden.


    Hier ist es ganz gut erklärt.