Hey Leute,
danke schon mal für eure Antworten!
Was genau ist denn dein Ziel?
Oder willst du dir damit überhaupt erst ermöglichen von überall darauf zugreifen zu können?
EDIT: Irgendwie habe ich den vorletzten Absatz nicht ganz wahrgenommen. Fällt dein DSL Zuhause so oft aus? Vielleicht wäre es einfacher die bestimmten kleinen Dateien per rsync zu synchronisieren oder ähnliches.
Mein Ziel ist es eine Nextcloud Instanz mit sehr hoher Verfügbarkeit und relativ hoher Geschwindigkeit zu haben.
Theoretisch lief es bei mir lokal auch ganz gut, aber:
- Die SD-Karte meines Raspberrys hat den Geist aufgegeben
- Der USB/Sata Adapter fürs Raspberry war defekt bzw nicht kompatibel zu Linux und somit hing meine SSD regelmäßig
- Mein raspberry hat irgendwann angefangen einfach zu hängen und nicht mehr erreichbar zu sein
- Vor 2 Tagen haben irgendwelche Menschen entschieden sie wollen gegen ein Forschungsinstitut, dass neben meinem Haus liegt, demonstrieren und haben einfach mal einen Kabelschacht in Brand gesetzt und jetzt habe ich wahrscheinlich mehrere Wochen kein Internet mehr.
In Summe: Ich kann mich mit Ausfällen abfinden und repariere gerne alles, aber es nervt gewaltig wenn dann meine kompletten IT-Systeme nicht mehr funktionieren, da sie auf Nextcloud basieren.
Daher wäre es für mich enorm wichtig, dass ein gewisser Prozentsatz meiner Daten bzw die Nextcloud mit den Basics (Kontakte, Kalender,Keepassfile etc etc ) noch funktioniert und im schlimmsten Fall einige Daten vorübergehend nicht synchronisiert werden können.
Du hast nicht wirklich viel Kontrolle darüber, was gecached wird.
Und auch die Verfügbarkeit des Caches vs. Verfügbarkeit der eigentlichen Daten führt unweigerlich zu Konsistenzproblemen.
Danke für deinen Input.
Ich dachte nicht, dass das zu Konsistenzproblemen führt, sondern genau für dieses Use-Case geschaffen wäre und die Daten dann nur vorübergehend nicht aktualisiert werden.
Werde mich da noch mal etwas genauer einlesen ob man sowas vermeiden könnte.
Zitat von H6G
Ich würde dir hier empfehlen zwei getrennte Nextcloud Installationen zu betreiben. Eine für deine Filme und großen Files, und eine für deine kleinen Dateien.
Die Netcup SSDs haben nicht viele Vorteile gegenüber den SAS Platten, abgesehen von IOPS, die bei einem Dateiserver mit wenigen Nutzern eher nicht ins Gewicht fallen. Zudem hast du unter Linux bereits einen richtig guten Cache: den RAM. Und die SAS Platten geben dir auch etwas mehr Platz zum Jonglieren.
Das ist eine echt gute Idee. Ich werde das mal im Kopf durchspielen in wie weit das alle Kriterien erfüllt die ich bräuchte.
Eine andere Option die mir gerade eingefallen ist ist, dass ich alle kleineren Daten in die Nextcloud Instanz auf dem Root-Server schiebe und die restlichen großen Daten auf der Festplatte einfach als "Externer Speicher" einbinde. Somit wäre im worst case maximal mein extern eingebundener Speicher nicht erreichbar.
Zitat von H6G
Wenn du doch nicht von dem Gedanken ablassen kannst: hier würde sich ein GlusterFS mit Shards anbieten. Für das übergreifende locking von Dateien in der Nextcloud bräuchtest du dann eine Redis Datenbank, damit du dann die großen Dateien lokal mit einem Geschwindigkeitsbonus ausspielen kannst.
Ansonsten nehmen die einmal den Umweg über das Internet.
Jede Lösung dazwischen führt beim Schreiben von Dateien zu defekten Dateien. Wenn du sinnvoll zwei Nextclouds mit der gleichen Datenbasis anbieten willst, musst du ein Locking in der höchsten Protokollebene sicher stellen.
Tatsächlich ne sehr interessante Option und kommt auch auf meine ToDo-Liste, aber wäre momentan glaube ich absoluter Overkill.
Wird aber trotzdem evtl mal in Angriff genommen allein um es mal getestet zu haben!