Beiträge von cltrmx

    2a03:4000:4f:fe7:84b1:8fff:fee0:7aa7/64 ist die Adresse mit angegebenem Subnetz (/64). Versuch es mal ohne "/64" am Ende.

    Ich nutze seit Jahren Seafile Pro (3 User) und Seafile Community (~30 User) habe das auch schon über mehrere Server und Container / Local umgezogen. Das hat immer reibungslos funktionert. An den Installation war noch nie irgendwas defekt, aber man sollte wie bei vielen anderen auch vielleicht nicht immer die x.0 installieren sondern dann die x.1 ;) . Das eigentliche was mich an Seafile stört ist die Dokumentation und die Supportabwicklung im Forum, anstatt das z. B. gleich die Issues in GitHub zu lassen, aber das ist leider so gewollt.

    Danke für den Erfahrungsbericht!

    Naja, wen wunderts? Seafile ist darauf hin optimiert und zudem in C geschrieben. Damit hat die PHP-Anwendung Nextcloud natürlich schon von vornherein verloren.

    Vermutlich ist du Recht, so wird es sein!

    Performance-Wunder darf man natürlich nicht erwarten. Das 100 GB sicher auch bei mir eine Weile dauern würden liegt bei mir schon daran, dass ich nur ca 6 MBit Upload habe. Da müsste man sich schon mal 2 Tage Zeit nehmen. An der Netzwerkanbindung des Webhostings scheitert es nicht, da habe ich auch schon deutlich mehr als ein GBit/s gemessen.

    Mir ging es auch eher um die Performance von Nextcloud an sich. Vergleiche ich das mit Seafile, ist Seafile bei vielen Dateien bestimmt um den Faktor 2-4 schneller als Nextcloud. Der Gedanke bei meinem Kommentar oben war, dass die Performance bestimmt nicht besser wird, wenn Nextcloud zusätzlich noch auf einem shared Hosting läuft.

    Doch, Nextcloud kann man schon auch in einem Webhosting Paket installieren, natürlich läuft sie auf einem VPS/RS flüssiger, aber benutzbar ist sie auch im Webhosting, wenn man nicht gerade Videokonferenzen mit Talk veranstaltet. FileSync, Kalender und Aufgabensync, Notizen usw funktioniert aber.

    Interessant zu lesen. Ich habe eher die Erfahrung gemacht, dass sie auch auf einer eigenen VM nicht gerade super performant bei dem Synchronisieren von Dateien ist. Aber gut, das liegt vielleicht auch daran, dass es mehr als 100 GiB sind.

    Hallo zusammen! Interessanter Austausch, vor allem weil ich auch gerade daran interessiert bin z.B. eine Nextcloud für die private Nutzung an den Start zu bringen.

    Kann mir da ggfs. jemand aus eigener Erfahrung ein Produkt von Netcup empfehlen (gerne auch erstmal nur Richtung Mindestanforderungen)? In einem Webhosting Paket wird man es ja vermutlich nicht installieren können?!

    Ich würde einen vServer statt eines Webhostings empfehlen. Bisher habe ich performancetechnisch nur Schlechtes über Nextclouds auf Webhostings gehört.

    ist jetzt die Frage wie Du es verstanden hast, mehr als einen vServer sollt ma schon haben, wenn ma ein Monitoring veranstalten will;

    is sonst wie eine Straßenbahnlinie mit nur einer einzigen Haltestelle :D

    Zwei Gedanken dazu:

    • Monitoring eines einzelnen Servers kann auch sinnvoll sein.
    • Ich meinte meine Antwort so: Verwende ebenfalls einen einzelnen vServer nur für das Monitoring (ebenso wie michaeleifel).

    Uff, ich habe heute Morgen auch erstmal einen Haufen Emails vom Monitoring bekommen. Scheinbar waren 3/4 vServer offline zu dem von euch genannten Zeitraum.

    Ohne Angabe zu dem Produkt bei dem anderen Anbieter wird ein Vergleich natürlich schwierig. Du könntest einfach ein paar Benchmarks, wie beispielsweise Geekbench 4/5, laufen lassen und die Ergebnisse vergleichen.

    Hallo zusammen,


    hat jemand von euch schon mal einen Livestream mit Owncast auf Netcup Infrastruktur gehostet? Falls ja: Was habt ihr da an vServer/Root Server verwendet für wie viele Leute? Mir geht es um ein einmaliges Streamingevent mit vielleicht ~50 Leuten.


    Habt ihr Erfahrung mit einer anderer selbstgehosteten Streaminglösung?

    Keyfile ist nicht immer möglich. z.B. wenn man oft von unterwegs, von fremden Geräten aus auf den Server zugreifen muss.

    Ich habe dafür dann immer zwei user. Einen "normalen" mit ausreichend langem Passwort und einen su zu dem man dann wechseln muss und für den das ssh-Login gesperrt ist. Das ist durchaus ausreichend. Keyfile muss nicht notwendigerweise sein. (Meine Passwörter sind in der, dem Universum noch verbliebenen Zeit nicht zu knacken ;))

    Für sowas kann man doch super einen Jumphost benutzen. So muss man nicht auf allen Systemen PW-basierte Authentifizierung aktivieren.

    Danke für die Empfehlungen!

    Ich hatte mir auch pydio angeschaut, nur fehlte mir die E2EE in der Form wie ich die bei sf habe.

    Interessanterweise ist die Implementierung der sicherheitskritischen Features in Seafile wohl eher nicht so gut. Da gibt es hier (https://github.com/privacytools/privacytools.io/issues/490) ein interessantes Issue zu. Ist in dem Umfang für mich nicht so relevant (oder zumindest bilde ich mir das ein), weil der entsprechende Server sowieso vollverschlüsselt ist. Eine Transportverschlüsselung kann $admin mit den gängigen web-basierten Tools und LetsEncrypt ja auch erreichen.

    Hat jemand schon auf dem produktiven Server Debian auf Bullseye aktualisiert? Ich habe bei meinem Test-Server die Upgrade durchgeführt, scheint alles gut zu funktionieren.

    Ja, ich habe bereits eine VM mit Bullseye aufgesetzt und zwei Proxmox-Server auf PVE 7 geupgradet (das basiert auf Bullseye) - keinerlei Probleme bisher. Die Proxmox-Kisten laufen auch schon seit ein paar Wochen auf PVE 7 ohne negative Erkenntnisse.