Beiträge von Peter Lustig

    Ja, nicht jeder versteht immer gleich was ich sagen will. ;)

    Teilübersetzung: Unserer Welt würde etwas Entschleunigung ganz gut tun. :)

    Ok verstehe. Dann tut mir meine Aussage leid!
    Dachte du versuchst das damit zu rechtfertigen :)

    E-Mails sind aber tatsächlich kein Echtzeitmedium. Daran kann man aus technischer Sicht nicht rütteln…


    Will man jegliche Verzögerungen minimieren, müsste man z.B. auch gänzlich auf Greylisting verzichten.


    (Keine Ahnung, ob das bei netcup im Webhosting aktuell eingesetzt wird.)

    Echtzeit verlangt ja auch niemand. Aber 5-10 Minuten ist sehr sehr weit entfernt von Echtzeit.

    Tja, wir sind verwöhnt.

    Früher gab es Briefe, die (mit etwas Glück) in 1-2 Tagen da waren und wenn es sehr schnell gehen musste ein Expresstelegramm, ;)

    Ist auch keiner dran gestorben.

    Email ist halt tatsächlich kein synchrones Kommunikationsmedium.

    Ich finde diese Aussage, ohne beleidigend klingen zu wollen, vollkommen sinnlos.

    Früher sind auch Menschen an den Pocken gestorben.
    Bedeutet das jetzt,dass ich verwöhnt bin, wenn ich erwarte, dass ich heutzutage nicht mehr leichtfertig an den Pocken sterbe?

    Es ist technisch absolut machbar. Es ist nicht nur machbar sondern sogar vollkommen normal. Ich hatte in meinem Leben schon so einige Email Accounts.

    Ob selbst gehosted oder nicht. Und dieses Problem ist noch nie aufgetreten.
    Daher empfinde ich sowas schon eher als lahme Ausrede.

    Ich wollte meinen Webhosting 4000er Vertrag der seit etwas über einem Jahr seine Mindestvertragslaufzeit überschritten hat, auf den Aktionstarif Webhosting 8000er WSV upgraden.
    Im Customercontrolpanel ging das nicht. Habe daher mal den Support angeschrieben. Seine Antwort: "Ist auch technischen und vertragsrechtlichen Gründen nicht möglich".
    Habe den Tipp bekommen das alte Webhosting zu kündigen und das neue abzuschließen und anschließend die Domains zu portieren.
    Aber leider ist das nicht so leicht, denn die Mails und alles andere muss ja auch noch portiert werden...
    Und ich werde bestimmt nicht 30 Email-Postfächer per Hand portieren.

    Daher ein kleines Feedback hier an Netcup:
    Richtet doch ein, dass Bestandskunden ebenfalls Aktionstarife zur Auswahl bekommen. Denn aus "technischen Gründen" kann es ja nicht sein, sonst könnte ich auch nicht selbstständig auf den aktuellen Webhosting 8000er wechseln.

    Wenn es explizit um den Spam geht, dann wie Tab sagt nochmal die Spamfilter Threads im Forum lesen, dieser ist eher ein Drama. Bis zu 5 Minuten verspätete Mails (Incoming), bestimmte Absender die gar nicht ankommen (war es GMX?) und eben die Spamerkennung die nicht so klappt wie man erwartet. Alles in sehr langen Forenbeiträgen verpackt. Ich bin mit den Mails aktuell auch noch auf einem Webhosting und war bisher zu faul das ganze auf den VPS umzuziehen.


    Oh, ich bin da anscheinend nicht alleine.
    Habe dem Support geschrieben, aber der meinte nur ganz trocken "Email ist kein synchrones Kommunikationsmedium und es kann halt manchmal bisschen dauern".
    Aber wenn ich irgendwo bin, jemand steht neben mir, schickt mir eine Mail und ich muss sagen "Sorry, Netcup sagt ist kein synchrones Kommunikationsmittel. kann etwas dauern", ist das inakzeptabel.
    Emails die teilweise 5-10 Minuten verspätet eintreffen ist halt einfach nicht ok.

    Muss mal schauen ob ich auf den Spamfilter verzichte oder den Anbieter wechsel.

    Hey Leute,


    danke schon mal für eure Antworten!

    Was genau ist denn dein Ziel?

    Oder willst du dir damit überhaupt erst ermöglichen von überall darauf zugreifen zu können?

    EDIT: Irgendwie habe ich den vorletzten Absatz nicht ganz wahrgenommen. Fällt dein DSL Zuhause so oft aus? Vielleicht wäre es einfacher die bestimmten kleinen Dateien per rsync zu synchronisieren oder ähnliches.

    Mein Ziel ist es eine Nextcloud Instanz mit sehr hoher Verfügbarkeit und relativ hoher Geschwindigkeit zu haben.
    Theoretisch lief es bei mir lokal auch ganz gut, aber:

    - Die SD-Karte meines Raspberrys hat den Geist aufgegeben
    - Der USB/Sata Adapter fürs Raspberry war defekt bzw nicht kompatibel zu Linux und somit hing meine SSD regelmäßig
    - Mein raspberry hat irgendwann angefangen einfach zu hängen und nicht mehr erreichbar zu sein

    - Vor 2 Tagen haben irgendwelche Menschen entschieden sie wollen gegen ein Forschungsinstitut, dass neben meinem Haus liegt, demonstrieren und haben einfach mal einen Kabelschacht in Brand gesetzt und jetzt habe ich wahrscheinlich mehrere Wochen kein Internet mehr.

    In Summe: Ich kann mich mit Ausfällen abfinden und repariere gerne alles, aber es nervt gewaltig wenn dann meine kompletten IT-Systeme nicht mehr funktionieren, da sie auf Nextcloud basieren.
    Daher wäre es für mich enorm wichtig, dass ein gewisser Prozentsatz meiner Daten bzw die Nextcloud mit den Basics (Kontakte, Kalender,Keepassfile etc etc ) noch funktioniert und im schlimmsten Fall einige Daten vorübergehend nicht synchronisiert werden können.



    Du hast nicht wirklich viel Kontrolle darüber, was gecached wird.

    Und auch die Verfügbarkeit des Caches vs. Verfügbarkeit der eigentlichen Daten führt unweigerlich zu Konsistenzproblemen.


    Danke für deinen Input.

    Ich dachte nicht, dass das zu Konsistenzproblemen führt, sondern genau für dieses Use-Case geschaffen wäre und die Daten dann nur vorübergehend nicht aktualisiert werden.
    Werde mich da noch mal etwas genauer einlesen ob man sowas vermeiden könnte.

    Zitat von H6G

    Ich würde dir hier empfehlen zwei getrennte Nextcloud Installationen zu betreiben. Eine für deine Filme und großen Files, und eine für deine kleinen Dateien.

    Die Netcup SSDs haben nicht viele Vorteile gegenüber den SAS Platten, abgesehen von IOPS, die bei einem Dateiserver mit wenigen Nutzern eher nicht ins Gewicht fallen. Zudem hast du unter Linux bereits einen richtig guten Cache: den RAM. Und die SAS Platten geben dir auch etwas mehr Platz zum Jonglieren.

    Das ist eine echt gute Idee. Ich werde das mal im Kopf durchspielen in wie weit das alle Kriterien erfüllt die ich bräuchte.
    Eine andere Option die mir gerade eingefallen ist ist, dass ich alle kleineren Daten in die Nextcloud Instanz auf dem Root-Server schiebe und die restlichen großen Daten auf der Festplatte einfach als "Externer Speicher" einbinde. Somit wäre im worst case maximal mein extern eingebundener Speicher nicht erreichbar.

    Zitat von H6G

    Wenn du doch nicht von dem Gedanken ablassen kannst: hier würde sich ein GlusterFS mit Shards anbieten. Für das übergreifende locking von Dateien in der Nextcloud bräuchtest du dann eine Redis Datenbank, damit du dann die großen Dateien lokal mit einem Geschwindigkeitsbonus ausspielen kannst.


    Ansonsten nehmen die einmal den Umweg über das Internet.

    Jede Lösung dazwischen führt beim Schreiben von Dateien zu defekten Dateien. Wenn du sinnvoll zwei Nextclouds mit der gleichen Datenbasis anbieten willst, musst du ein Locking in der höchsten Protokollebene sicher stellen.

    Tatsächlich ne sehr interessante Option und kommt auch auf meine ToDo-Liste, aber wäre momentan glaube ich absoluter Overkill.

    Wird aber trotzdem evtl mal in Angriff genommen allein um es mal getestet zu haben!


    Hey Leute,

    momentan habe ich an meinem privaten DSL ein Raspberry hängen auf dem ich alle wichtigen Dinge meines Lebens hoste, unter anderem eine Nextcloud und Mattermost.
    Ich spiele momentan mit dem Gedanken zum Beispiel die Nextcloud auf einen Root-Server von Netcup umzuziehen.
    Allerdings habe ich bei mir 2 5TB Festplatten im RAID Verbund laufen und würde ungern genau so viel Storage bei Netcup anmieten müssen.

    Meine Idee war nun folgende:
    Ich nehme einen normalen Root-Server mit SSD , anschließend richte ich per DM-Cache oder Bcache eine Cache-Partition auf dem Server ein (~20GB). Nun binde ich meine 5TB Festplatten zu Hause per NFS ein und lasse diese auf die schnelle SSD cachen.

    Wenn ich mich nicht irre hätte ich damit die Verfügbarkeit und Schnelligkeit des Root-Servers mit der großen Kapazität meines Heim-Servers.
    Außerdem wären dann hoffentlich die ganzen kleineren Sachen wie Kalender,Kontakte, kleine Textdateien gecached und ich hätte noch eine funktionierende Cloud selbst wenn mein DSL zu hause wieder mal nicht erreichbar ist.

    Mein größtes Anliegen ist eigentlich, dass alle kleineren Sachen auf der SSD liegen und die Cloud so gut wie voll funktionsfähig bleibt, selbst wenn mein DSL zu hause spinnt und somit nur die größeren Dinge wie Backups und Filme nicht abrufbar sind


    Habt ihr Ideen, Vorschläge oder ne Meinung zu diesem Aufbau? Übersehe ich dabei etwas oder sonstiges?