Hallo zusammen,
ich hoffe, das ist der richtige Thread für dieses Thema. Tatsächlich bin ich ein blutiger Anfänger, was die Einrichtung und Veraltung von Root-Servern (allesamt betrieben mit Debian 12) betrifft. Ich habe ein Medienbibliotheken-Projekt, welches das Zusammenspiel vierer Root-Server umfasst aufgesetzt. Wenngleich die Medien zu einem späteren Zeitpunkt an ein CDN übertragen und dort gespeichert werden, befinden sich die Medien für einen begrenzten Zeitraum lokal auf dem Webserver, da diese ggf. bearbeitet oder verändert werden können. Nun gilt es, eine geeignete Backup-Strategie für diese Medien auszuarbeiten.
Folgende Themen sind mir wichtig:
- Ich möchte sämtliche Daten auf einen externen FTP-Server übertragen (außerhalb von Netcup für größere Datensicherheit).
- Ich möchte keine Archive (ZIP/TAR, ...) generieren und übertragen, das wären immense Datenmengen. Wir sprechen von rund 250-500GB Daten, die auf dem Root-Server herumliegen, und das könnte noch mehr werden.
- Ich möchte einige Revisionen aufbewahren. Grundsätzlich habe ich mir vorgestellt, alle 2 Tage ein Backup zu übertragen und die letzten 5 Backups aufzubewahren. Das Löschen der älteren Backups auf dem FTP muss irgendwie automatisiert gelöst werden können.
- Ich möchte nicht das gesamte System backupen. Ich habe separate Backups um meine Konfigurationen uvm. zu sichern, hier geht es wirklich bloß um einen lokalen Medienordner.
Hat jemand Erfahrungen damit? Leider ist das Spektrum an Informationen im Internet riesengroß und nicht sehr spezifisch für meinen Anwendungsfall. Ich möchte natürlich auch die Server und insbesondere den Upload-Traffic schonen - und genau hier ist das Problem, sonst würde ich einfach ein Script schreiben, das per Cron alle Files von einem Ordner zu FTP pusht.
Ich kann mich noch wage an das Tool UpdraftPlus erinnern, das ist ein Backup-Plugin für Wordpress, welches eine ähnliche Funktion mittels PHP bewerkstelligt. Das hat mich zu der Überlegung gebracht, evtl. die Logik in ein PHP-Script zu implementieren und mittels der Datenbank die Historie der Backups zu protokollieren, um alte Backups automatisiert zu löschen. Wäre das ein denkbar guter Ansatz oder würdet ihr mir abraten?
Ich konnte leider noch nicht wirklich viele fertige Software-Pakete finden, die meinen Anforderungen entsprechen. Ich habe mir z.B. https://duplicity.gitlab.io/docs.html angesehen, das basiert aber auch auf Archiven. Generell wäre ich eher der Meinung, es mache Sinn, ein simpel lesbares Backup aufzubewahren, um im Fall der Fälle einfach von FTP zum Server zurückzuclonen, ohne wieder Software installieren zu müssen, die evtl. in mehreren Jahren nicht mehr zur Verfügung steht und dadurch gefährdet, dass ich mein ggf. inkrementelles Backup nicht wieder ordnungsgemäß zurückführen kann.
So - nun aber genug von meinen vielen wirren Gedanken... Ihr seht, ich könnte darüber stundenlang philosophieren. Daher möchte ich euch fragen: Wie habt ihr das gelöst? Gibt es Empfehlungen die ihr geben würdet oder Fehler, die ihr vermeiden würdet?
Vielen Dank vorab und beste Grüße!