Posts by Bodenhaltung

    des is leider kompletter Quark; es handelt sich hierbei um die analoge Erweiterung, welche

    es bei HTTPS unter dem Namen HSTS schon etwas länger gibt ...

    Na wenn du es sagst dann muß dem ja so sein, danke für die Aufklärung. :D

    Ich schrieb auch "für Mailserver". Also halt dich einfach bitte zurück wenn dein Halbwissen nicht ausreicht Sachverhalte korrekt zu erfassen, danke.


    Edit: Und es wäre durchaus eine Überlegung wert, den Server vorerst mal vom Netz zu nehmen bis vielleicht mal jemand mit mehr Erfahrung über deinen Code geschaut hat. Solche Fehler können durchaus in den Bereich der Sorgfaltspflicht-Verletzung gemäss Netcup AGB fallen.


    Wenn wir uns nicht solangsam sogar im Bereich der Mitstörerhaftung von Netcup befinden, von diesem ungesicherten Server geht durchaus eine ernstzunehmende Gefahr für die Infrastruktur und den allgemeinen Betrieb aus, also könnte, sollte und müßte dieser ersteinmal abgeschaltet werden.


    Kenntnis sollte Netcup solangsam davon haben aber zur Sicherheit nochmal [netcup] Felix zur Aufmerksamkeit nötigen. :D

    Meistens verbinden wir uns ja eh nur von den selben Maschienen auf die Server, so nutze ich z.B. einen Jumphost und nur die IP von diesem Server (naja einen Backup Jumphost gibt es noch) ist für SSH überhaupt freigegeben (screen, tmux und ssh agent forwarding tun gute Dienste). Meine "Dynamische" IP von Zuhause ist auch freigegeben da ich einen DynDNS Dienst nutze, kann ich per CronJob die IP von meinem DynDNS Host abfragen und habe dann so meine aktuelle IP für die SSH Freigabe parat.

    Hat jemand eine Lösung die Google Photos lokal zu sichern unter Linux und gerne automatisiert allerdings ohne Google Drive (der Sync wird laut Google demnächst abgeschaltet)?

    Hallo,



    Genau, es ist eine selbstgebaute Seite allerdings mittlerweile ist das Design in die Jahr gekommen, an einem neues Design mit einem Framework wird momentan bereits gearbeitet, verzögert sich allerdings leider da das Framework selbst (interne) Probleme mit der Einbindung der von mir verwendeten Datenbank hat. Ich würde aber dennoch aktuell einen neuen Bereich (Mitgliederbereich) fertig bauen im alten Design Context allerdings doch etwas moderner aber doch passend. Bin dafür aber auch eine Designniete und die meisten Webdesigner fassen solch einen Pfusch erst gar nicht an. Ein neues CSS einbinden was die bereits verwendeten CSS Tags überschreibt gefällt mir allerdings, das könnte tatsächlich klappen. Ich hatte mal einfach aus Spaß Bootstrap CSS eingebunden aber da kam dann überall Feuer raus. :D


    Falls jemand Interesse daran hat mich zu unterstützen und es sich gerne anschauen möchte kann gerne eine PN schicken. :)

    Hat jemand Design Skills um mich in die richtige Richtung zu schubsen? Ich versuche in einer Webseite, eine einzelne Seite vom Design her etwas aufzuhübschen ohne am "großen" CSS etwas zu ändern, aktuell per CSS direkt ab jeweiligen html Tag was aber nicht wirklich hübscher aussieht und auch pfusch ist, gibt es einen Weg das CSS für eine Seite "zu resetten" also für den Content, das Menü, Footer soll alles so bleiben. Hoffe habe mich wirr genug ausgdrückt. :D


    Zurück zum Thema. Der PyMon-crawler fragt die Daten dann von allen Servern ab, und schreibt diese in eine InfluxDB. Die wird dann widerum vom Grafana angezapft und dort werden die Daten visualisiert. ;)

    Bensen : Es gibt auch noch die Möglichkeit das Datensammeln für die InfluxDB Telegraf durchführen zu lassen, so mache ich das bei mir was auch gut klappt.

    esotherisch? :D


    sagte ja vorhin, weil eben die Zeit nicht vollsynchron ist - CPUs sind nicht exklusiv zugeordnet - sagen solche kurven innerhalb der VM wenig bis gar nichts aus; die eigentliche korrekte CPU/RAM/HDD Statistik kennt nur der Host selbst;

    Das ist auf sovielen Ebenen einfach nur falsch und Müll das man gar nicht weiß wo man da anfangen soll, lass es einfach wenn du keine wirkliche Ahnung hast, Danke.

    irgendwie arrogant finde ich das ...


    wenn da auf einen Server was läuft, was etwas mehr als mikrige 5 Sekunden braucht,

    um sauber gestoppt zu werden, kann das durchaus sein, daß man da vorher etwas manuell beenden muss,

    weil der Reboot des Hosts evtl. zuwenig Zeit f. ein sauberes shutdown von genau solchen Diensten und damit dem gesamten vServer bietet

    Viel Spaß bei einigen hundert Kisten dann manueller Eingriff ist halt nunmal Pfusch, wenn es ein Problem hat mit herunterfahren ist die Applikation kaputt bzw. muß entsprechend optimiert werden und/oder beim starten der Applikation eine entsprechende Recovery Funktion vorhanden sein, aber das kennt jeder der Java verwendet. xD


    Wenn es dann Probleme gibt nachdem die VM wieder läuft kann das Monitoring ja gerne entsprechend eskalieren.

    Die Updates fallen zudem genau in den Beginn der Sommerferien in Nordrhein-Westfalen. Meine 23 Server werden somit in meiner Kernurlaubszeit rebootet, täglich mindestens zwei bis zu vier Server, das über zwei Wochen hinweg. Da freue ich mich schon jetzt riesig drauf und grüße alle, denen es genauso ergeht. Gut das Netcup an dieser Stelle nicht auch noch am Wochenende arbeitet, so bleibt mir ein wenig Resturlaub ganz ohne Serverkonsole.


    Reboot-Management vom Strand wollte ich aber schon immer mal machen, das wird sicher spannend!

    Wenn du wegen eines rebootes an die Kisten mußt ist eh was anderes im argen bei dem Design was optimiert gehört.

    Das ist doch kein Grund. Die Daten liegen doch eh alle vor.

    Netcup hat folgende Informationen:


    Bei mehreren tausend Kunden auf Hardwarenodes und mehrere tausend VMs macht diese künstliche komplexität keinen Sinn mehr bzw. wird irgendwann einfach nur unwartbar. Da wäre es eher besser es über Sparehardware und Migration der VMs im Hintergrund zu lösen das aber macht auch keinen Sinn bei 3€ vServer 30 Spare Hardwarenodes bereitzuhalten.

    Ich finde es irgendwie ein bisschen unverschämt, wie sich manche Leute über netcup aufregen. Klar, an manchen Stellen kann man vielleicht etwas nachbessern, aber man sollte immer die Preise hier im Hinterkopf behalten. Und wenn ich als Unternehmer mit mehreren tausend Kunden, welche auf meine Server zugreifen, keine Redundanz (oder bspw. ein Cluster) in der Serverstruktur bereitstelle, dann kann ich mich auch nicht aufregen, dass mein Server für 30 Minuten down ist.

    Sehe ich auch so, habe mir auch eine "Hochverfügbarkeit für Arme" gebaut und tut was es soll. Das zeigt nur mehr das derjenige eher nicht dafür geeignet ist. Zumal ich auch eher dafür bin am Tage neuzustarten als Nachts, da ich Nachts meinen Peak im Projekt habe. :D

    Bei Georedundanz gilt idR. ein Radius von 30km (Wirkungskreis einer Nuklearwaffe). Aber schön, dass du diese Diskussion ernst nimmst.


    Georedundanz? Zweite Erde? </troll>

    Aktuell liegt der Radius bei (bis zu) 50km laut BSI.

    Die haben die meisten Provider mittlerweile abgebaut, sind langsamer als die Alternativen und schmeißen auch nur alles auf die Google Resolver. TTLs werden auch selten respektiert.


    Meine Resolver verwenden die normale DNS Chain und respektieren die TTLs (inkl. DNSSEC und TLS). So wirklich langsam find ich die eigentlich nicht.