self-hosted vs. Cloud Dienste

  • Da liegt das Problem eher daran, dass man Mails nicht in einem Script verschickt, das den Request des Users handelt, sondern in eine DB oder File Queue legt und dann per Cronjob die Mails verschickt. Aber genau das ists ja: Wenn mans selbst hostet, versucht mans erst mal dort zu lösen und investiert Zeit, und das ist ein Hamsterrad in das man immer wieder reinspringt.


    mailbox.org für die E-Mails steht jetzt erst mal, muss nur noch die Mailboxen umsiedeln bzw die beteiligten informieren.


    GitHub und das ich drauf gekommen bin, dass private Repos jetzt kostenlos sind, warn der Stein des Anstoßes weil ich damit die statischen Pages hosten wollte. Da dort nur eine custom domain pro Page möglich ist, sind sie aber wieder rausgefallen. Da gitlab.com so ekelhaft langsam ist, hab ich GitHub jetzt noch ne Chance gegeben, um mir zumindest eine eigene Git(Lab/ea) Instanz zu sparen, die statischen Pages kann ich immer noch anders lösen. Also GitHub geöffnet, neues Repo, Import starten ... da steht seit ner dreiviertel Stunde "Detecting your project’s version control system…". Auth Daten hab ich bereits eingegeben. Das ist ja n guter Start mit GitHub :wacko:

  • Da liegt das Problem eher daran, dass man Mails nicht in einem Script verschickt, das den Request des Users handelt, sondern in eine DB oder File Queue legt und dann per Cronjob die Mails verschickt. Aber genau das ists ja: Wenn mans selbst hostet, versucht mans erst mal dort zu lösen und investiert Zeit, und das ist ein Hamsterrad in das man immer wieder reinspringt.

    Ja es wäre besser es so zu tun (asynchron die E-Mails zu versenden), nur scheinbar macht das Wordpress per default nicht so, aber es ist auch kein Problem, wenn man nur eine E-Mail alle paar Stunden mal versendet. Trotzdem ist es nervig, wenn dann der User mehrere Sekunden warten muss, während die E-Mails jetzt mittels mailbox.org sofort rausgehen und es keine Verzögerung mehr gibt.

  • Sorry, da muss ich noch einmal darauf antworten, ich will das so nicht stehen lassen.


    Eine Antwort weiter unten findest du nachfolgendes:

    Quote

    This also never happens on port 587 and 465. Plus it never sticks the whole website. You are doing something very wrong. :-(

    Mailcow hat wie bereits erwähnt keine künstlich erzeugte Verzögerung.


    Der Kernel-Panic wurde auch - wie in dem Bugreport zu sehen ist - nicht von Mailcow erzeugt sondern von einem Bug im Ubuntu Kernel.


    Mailcow ist nicht der heilige Gral, jedoch sollte man an deiner Stelle keine Software und kein Projekt schlecht reden weil es einen Fehler triggert der im Kernel eines Betriebssystems zu finden ist. Du musst hier klar unterscheiden und auch bei den Fakten bleiben. Das was ich mache ist, deine schrägen Aussagen gerade zu biegen um den Ruf des Projekts zu schützen.


    Meinung äußern ist gut, dann bilde dir deine Meinung aber auch aufgrund von Fakten und nicht aufgrund von unverifizierten Beobachtungen und Vermutungen.

  • Also halte das ganze ebenfalls selektiv. Mal so, mal so.


    Als erstes Git - weil hier viele gefragt hatten. Ich habe meine Gitea Instanz letztens aufgelöst und meine Repos zu codeberg.org umgezogen. Das ist kostenlos und wenn man lieb ist und etwas Geld übrig hat, darf man halt auch mal ein paar Euro für den Betrieb spenden. Oder man lässt es halt.


    E-Mail und Websites wickel ich größtenteils über ein Webhosting 1000 SE von Netcup ab (0,49€/Monat). Habe ich mal über ein Sonderangebot bekommen.

    Ist bequem, ich habe noch nie Spam bekommen und ich habe auch keinen wirklichen Pflegeaufwand...


    Alles andere und vor allem private (z.B. Nextcloud) liegt auf meinem VPS hier bei Netcup und das hoste ich selbst. Ich gebe aber auch zu, dass ich das ganze halt möglichst pflegeleicht gestalte (natürlich nur solange es nicht die Sicherheit beeinträchtigt).

    Als Sprachserver nutze ich TS3 - da nutze ich einfach die Instanz eines Kumpels, dessen Server ich sowieso betreue.

    VPS 1000 G8 Plus | RS Black Mamba | VPS 200 G8 | WH 1000 SE


    Wer im Netz Anstand und Respekt verliert, der ist auch im realen Leben für nichts zu gebrauchen! ;)

  • Ich handhabe das ähnlich wie chenjung . Der Verein, für den ich die IT mache, hat nur selfhosted Dienste im Einsatz. Da bin ich verantwortlich und weiß wer schuld ist, wenn mal was nicht funktioniert. Privat habe ich nahezu alles in der Cloud, weil ich mir die Arbeit nicht noch mal antun möchte. Es ist aber definitiv so, dass die Vereins-IT in selfhosted deutlich mehr Aufwand bedeutet, als meine private.


    Ein Hinweis zu Gitlab (Pages): Ich habe sehr gute Erfahrungen mit Github gemacht, und seit ein paar Monaten sind dort auch private Repos kostenlos. Vielleicht ist das noch einen Versuch wert.

    So wie ich das verstanden habe, gibt es jetzt die Möglichkeit mit den privaten Repos, aber man kann nur 3 Personen dazu einladen, will man unbegrenzt haben, muss man zahlen.

  • So wie ich das verstanden habe, gibt es jetzt die Möglichkeit mit den privaten Repos, aber man kann nur 3 Personen dazu einladen, will man unbegrenzt haben, muss man zahlen.

    Genauso ists. Meine Repositories liegen seit gestern bei GitHub, und auch wenns fachlich und technisch nichts zu meckern gibt, schmeckts mir nicht so recht. Ich wünschte ich könnte konkret sagen warum, ich kanns aber nicht. Vielleicht auch nur deswegen, weil die Repositories keine alltägliche Relevanz haben, ich nur selten commite und Git quasi per se mehrfach gebackupped ist. Außerdem ist das Hosting einer GitLab oder Gitea Instanz mit Docker so wartungsfrei wie ein Badezimmerteppich. Ich bin daher noch am überlegen und probieren, obs bei GitHub bleibt oder doch ne selbst gehostete GitLab Instanz wird, mit der ich dann auch gleich die statischen Websites mittels GitLab Pages ausliefern kann.

  • Was treibt euch dazu, eure eigenen Server zu betreiben? Hat jemand von euch seine Server gegen gehostete Dienste getauscht oder umgekehrt? Warum habt ihr das gemacht?

    Datenschutz. Es sind meine Daten und nur meine. Meine Daten gehen andere nichts an.


    Viele Menschen sind zu "dumm" sich selbst um ihre Daten zu kümmern und zu "dumm" zu verstehen, dass es etwas kostet, wenn man seine Daten bei Fremden "sicher" aufbewahren will. Die freuen sich über Office 365, MS Teams, Dropbox, iCloud, Google, Alexa, ... und stellen intimste Details Unbekannten zur Analyse und Auswertung zur Verfügung. Und da geht es nicht um Nacktbilder oder anderes. Ganz gewöhnliche Dinge (aufgenommene Sprache) reichen schon aus, um ein umfängliches Persönlichkeitsprofil vom Menschen zu erstellen.


    Und wenn das Wissen da ist, zumindest einen großen Teil davon (Mails, Kalender, Kontakte, Daten) privat zu verwalten, fern von jeglicher "Cloud", dann wäre es meiner Meinung nach töricht dies nicht zu tun, auch wenn es ein bisschen Mehraufwand bedeutet.

    Bei nicht privaten Dingen (Webseiten), sehe ich hingegen kein Problem, dies nicht selbst auf einem Server zu verwalten.

    - Nicht mehr um Backups kümmern müssen.

    Welcher Clouddienst garantiert dir denn Backups? Netcup zumindest mal nicht:

    Wir sichern regelmäßig auf freiwilliger Basis alle Ihrer Websites, E-Mails und Datenbanken und speichern diese über mehrere Tage. Bei Bedarf und insofern das Backup bei uns verfügbar ist, können Sie kostenpflichtig einen Restore Ihrer Daten beim Support beauftragen.

    Und die meisten anderen auch nicht. Geworben wird zwar damit, dass die Cloud ja so sicher ist, ist aber in vielen Fällen nicht der Fall.

    https://www.heise.de/newsticke…scom-MyCloud-4469056.html

    https://www.heise.de/newsticke…-Musikarchiv-4338737.html

    https://www.heise.de/newsticke…in-der-Cloud-1234444.html

    https://www.heise.de/newsticke…en-bei-Azure-4295224.html