Backupstrategie für rserver

  • Hallo,


    es läuft jetzt ein RServer RS1000 mit 320 GB disk.

    Momentan ist etwa 10 Gb belegt.


    Was für Backupstrategie ratet euch mich?

    Storage dazu mieten? nur Snapshots? Oder . . . . ?


    Es sind einige Websites, Webapps und Demo's drauf kein Produktionssachen weil ich erst erfahren will wie es so läuft.


    MfG

    Jan

  • Hi,


    ich kann dir borg sehr empfehlen, das nutze ich auch auf meinen Servern. :)

    Bei mir läuft das so, dass sich meine beiden VPS dann (per VPN Tunnel) via SFTP auf mein NAS (Odroid XU4) zuhause sichern. Verbraucht auch sehr wenig Speicherplatz, da das ganze inkrementiell läuft. :)


    Hier ist eine gute Anleitung dazu, in der auch eine etwaige Backupstrategie beschrieben wird. ;)

    VPS 1000 G8 Plus | VPS 200 G8 BF | VPS 200 G8 | Odroid XU4Q


    Wer im Netz Anstand und Respekt verliert, ist auch im realen Leben für nichts zu gebrauchen! ;)

  • Was für Backupstrategie ratet euch mich?

    Das hängt von der eingesetzten Software und den abgelegten Daten ab. Ein Datenbankserver will anders gesichert werden als ein reiner FTP-Storage.


    Es gibt dazu auch schon zahlreiche Threads im Forum, wo man immer wieder gute Tipps und Anregungen für eine eigene Backupstrategie bekommt.

  • Nebenbei, das "nach Hause runterladen" soll dich nicht davon abhalten, auf dem Server selber auch den Zustand der letzten 7 Tage / Wochen vorzuhalten. (Solang du den Speicherplatz nicht anderweitig nutzt.)


    Streng genommen ist das kein Backup weil auf der gleichen Maschine, auf dem gleichen Speichermedium, und wenn das eingeht ist ja alles auf einmal weg.


    Aber manchmal muss man ja einfach so z.B. "auf den Stand von gestern" zurückgreifen können. Ohne dafür erst was hoch- oder runterladen zu müssen.

  • Ich fahre einige Backups, je nach Applikation, direkt auf dem Server um es danach per Cron von zu Hause abholen zu können. Hier wird es dann für Zeit x Revisioniert.

    03simon10 : Was hat der Upload eines privaten Internetanschlusses mit dem Backup @home zu tun? Das wäre wohl eher der Downstream, soviel Glücksache ist das, je nach Anbieter nicht. ;)

  • Was hat der Upload eines privaten Internetanschlusses mit dem Backup @home zu tun?

    Das Backup macht man ja in aller Regel nicht zum Spaß. Im Ernstfall muss das Backup vom heimischen Internetanschluss wieder zurück "ins Internet" zum Server und dann ist der Upload entscheidend. Wenn ich Tage brauch um das Backup zurückzuspielen ist das halt auch suboptimal.

  • In diesem Punkt gebe ich dir natürlich recht. Es kommt immer auf die zu sichernden Daten drauf an.

    Wenn ich die Daten entsprechend schnell wieder zur Verfügung stellen muß, muß die Quelle entsprechend angebunden sein.


    Mir ging es hier mehr um die Aussage, dass in Deutschland der Upload "eher Glücksache" wäre, was ich, bei mehreren Anbietern, nicht bestätigen kann.

  • Mir ging es hier mehr um die Aussage, dass in Deutschland der Upload "eher Glücksache" wäre, was ich, bei mehreren Anbietern, nicht bestätigen kann.

    Glücksache ist ob es überhaupt einen Anbieter gibt der einen vernünftigen Anschluss anbietet. Und bei (V)DSL/Kabel ist die Glücksache dann noch wie überlastet das Segment ist bzw. wie lang die Leitung zur Vermittlungsstelle ist. Gerade bei Kabel kenne ich einige geplagte wo zu den Stoßzeiten faktisch nichts mehr geht. Bei (V)DSL ist die Leitung wenigstens konstant (schlecht/gut). Von einer Anbindung über Mobilfunk will ich gar nicht erst reden... :rolleyes:


    Klar gibt es Ausnahmen: wenn man Vectoring hat und direkt neben dem Kasten sitzt, Kabel-Anschluss und in einem kleinen, nicht überlastenden Segment ist oder das große Los gezogen hat und per Glasfaser angebunden ist, aber leider ist das in Deutschland nicht die Regel :(

  • Es geht ja erstmal darum, überhaupt ein Backup zu haben. Wie man das dann hochlädt, das ist ein lösbares Problem. Wenn man es gar nicht hat, dann unlösbar.


    Kommt auch auf die Datenmenge an, wer eine 100TB Mediathek betreibt, der kommt nicht umhin, als das auf dem Postweg "hochzuladen" oder selber ins RZ zu fahren. ;-)


    Und ansonsten kann man sich klar einfach noch eine andere Kiste irgendwo mieten zum spiegeln, aber bei 10GB ist das jetzt noch nicht so angesagt...

  • Danke!


    So viele Tipps. Es sind momentan noch 10 Gb, weil ich noch nicht alles übersiedelt habe.

    Borg schaue ich mich sicher an weil ich mein Linux-Desktop auch besser sichern muss,


    Mein Idee ist ein Backup "innerhalb Netcup" nach Hause möchte ich es nicht kopieren denn jeden RZ

    ist besser abgesichert. Ich lebe in ein Risiko-Gebiet für Gewitter und habe trotz USV schon mal 1 PC mit
    kaputten MB gehabt nachdem der Blitz in der 10 kV Leitung eingeschlagen war.


    Für Mysql nutze ich normalerweise immer automysqlbackup, kurz her hat das aber ein Server abgeschossen,

    auch der Hoster konnte es nicht erklären oder lösen, es ist Ubuntu 14.04 .


    Wäre ein Backup auf dieselbe Server die dann weiter kopiert wird auf eine andere Server ein Idee?


    Der Backup auf dieselbe Platte versorge ich erstmal.


    MfG

    Jan

  • Wäre ein Backup auf dieselbe Server die dann weiter kopiert wird auf eine andere Server ein Idee

    Wozu das? Wenn du doch sowieso einen zweiten Server zur Verfügung hast, dann kannst du die Daten (siehe oben) doch direkt dort hinsichern, oder? Zudem sind die Server ja gut angebunden, d.h. im Ernstfall geht es auch hier schnell, die Daten von A nach B zu holen, um sie dort einzuspielen. Oder weshalb beabsichtigst du diese Strategie? (erst lokal sichern und dann später hochladen)

  • Du könntest das Backup von einem anderen Server abholen lassen. Webseiten kann man auch in Git usw. einchecken.

    MySQL/MariaDB kannst du einfach per Script dumpen (es gibt das viele Möglichkeiten).

    Du kannst dsa Backup auch ruhig als 2ten Ort einmal im Monat nach Hause transferieren und dann auf eine externe Platte speichern (diese muss ja nicht dauerhaft laufen).

    Nachtrag:

    Lokal sichern könnte Sinn machen. Man kann alles z.B. passend nach /backup kopieren lassen und diese dann von einem Server abholen lassen.

  • 03simon10


    Es geht mir darum der komplette Server zu sichern und das mit einige Generationen.


    Erstens damit ich schnell Daten zurück holen kann wenn etwas irrtümlich gelöscht war.

    Zweitens in Notfall eine komplette funktionierende Server zurück holen kann wenn es wirklich ernst ist.


    Sowieso dumpe ich alle Mysql-Databases weil Wiederherstellung einer Innodb aus Serverfiles sehr umständlich ist, und aus ein Dump sehr einfach.


    MfG

    Jan

  • Hast du eine Verwaltungssoftware? Froxlor, ISPConfig, KeyHelp usw.?

    MySQL Dump: Das ist kein Problem. wie gesagt, das kann man sehr gut scripten bzw. gibt es auch genug fertig Sachen (xtrabackup usw.).

    Borg ist hier eine gute Alternative zum sichern.

    Entweder sicherst du komplett /etc mit oder du machst dir eine Liste von Diensten, die du eingerichtet hast und sicherst nur das was nicht default ist.

    Wenn du wirklich ein Fullrestore des ganzen Servers incl. System durchführen möchstest, solltest du das vielleicht auf einer VM durchspielen.

    "Statische" Seiten kann man seht gut in einer Versionsverwaltung sichern. Das ist meistens ja auch direkt aus einer Entwicklungsumbegung möglich.