Posts by sensorback

    Alles klar, nieder mit allen Paketfiltern, haut weg alle Firewalls. Ich geh dann mal schaukeln.

    Wenn mans nicht schafft, E-Mails an Microsoft Postfächer zuzustellen, dann sollte man einfach keinen eigenen Mailserver für den Versand verwenden. Weder für private Mails, noch für Business, noch für e-Commerce oder sonst irgendwas. Das Problem mit der Zustellrate ist ein weithin bekanntes, wer das auf die leichte Schulter nimmt, und einfach mal nur annimmt, dass nur Microsoft so heikel ist, der sieht nur einen Bruchteil des Gesamtbilds, und verliert im e-Commerce laufend Geld - sofern das Geschäftsmodell den Empfang von E-Mails benötigt.


    E-Mails aus Webshops und anderen Tools fallen üblicherweise unter "transaktionale E-Mails". Mailjet ist einer der Anbieter für transaktionale E-Mails. Ich selbst hab bessere Erfahrung mit Postmark. Und da würd ich keinesfalls nach Empfänger trennen, sondern die Vorteile eines solchen auf hohe Zustellrate spezialisierte Dienstes für ALLE Empfänger nutzen. Dazu kommt dann auch noch, den Inhalt der E-Mails zu analysieren, zum Beispiel mit Tools wie https://www.mail-tester.com/. Geht man bei E-Mails nicht den ganzen Weg, dann machts leider überhaupt keinen Sinn, auch nur damit anzufangen.

    Wenns nach mir allein ginge, wär Docker gar kein Thema. Das ganze Werk ist im bisherigen Zustand, wo vollvirtualisierte VMs zum Einsatz kommen, allerdings derartig verunstaltet, dass ich den Neuaufbau vor Eingriffen anderer schützen will, indem ichs so einfach wie möglich mach. Da docker-compose im fraglichen Umfeld jeder beherrscht, ist das zurzeit das Mittel der Wahl um zu verhindern, dass es wieder entgleitet. Das Basissetup bis zum `docker-compose up` geschieht schon mit Ansible.

    Auch bezugnehmend auf mein früheres Posting: Mit alias docker=podman ist schon viel gewonnen, vgl. https://youtu.be/YkBk52MGV0Y (Red Hat hat regelmäßig Vorträge rund um das Thema Podman auf diversen Veranstaltungen).

    Die "Kompatibilität" ist mir beim Nachlesen untergekommen, ist schon interessant.

    Meine (beruflichen) Docker Anwendungsfälle halten sich jetzt gerade NOCH in Grenzen. Mein größtes Problem wär zurzeit noch, dass die Setups alle auf docker-compose beruhen. Von Experimenten wie podman-compose möcht ich grundsätzlich Abstand halten. Könnte das aber fürs erste nutzen um damit Podman Container zu starten und von den laufenden Containern Pods zu generieren. Zurzeit ist die Baustelle nämlich noch offen und jedes dieser Pakete wird nochmal zum digitalen Parkplatz planiert und geht erst produktiv wenn ich alles soweit hab, dass ich die Baustelle innerhalb von 10 Minuten automatisiert durchspielen und aufsetzen kann. Mir wird Podman zunehmend sympathisch - wenn auch nicht geeignet für meine Homelab Anwendungsfälle.

    Ähm. Naja ich habe da halt auch einige Dienste, die nur intern erreichbar sind. Und ein VPN. Und einen PiHole. Die wollen ja auch irgendwo DNS Auflösungen machen. Der Resolver ist nur intern erreichbar und hat halt zusätzlich eine lokale Zone namens rz.meinedomain.de... funktioniert ganz gut so, muss ich sagen.

    Zudem mache ich das auch, weil ich Dienste betreibe, die recht viele Auflösungen durchführen - GoAccess wäre da so ein Beispiel... das will ich dem Netcup DNS Server nicht antun. Und natürlich sind Unabhängigkeit und Privatsphäre bei einem eigenen Resolver noch von Vorteil.

    Da hast du dann doch einige Gründe mehr für einen Unbound Container :D


    • Docker ist ein totes Pferd (derzeit allenfalls noch ein Zombie). Gerade, wenn es irgendwann in Richtung Kubernetes gehen soll, unbedingt auf Podman setzen (Sicherheitsaspekte, Nutzerbasis, verfügbarer Support, systemd-Support (work-in-progress), konzeptionelle Ähnlichkeit zu Kubernetes ("Testumgebung für K8S"), ...).

    Über die Jahre hab ich angefangen es zu ignorieren, wenn eine Technologie, Framework oder ähnliches in die Pension geschickt wurde. Docker war was das angeht ja gefühlt eine Totgeburt, gerade da hab ich mich dann doch lange verwehrt es über Bord zu werfen weils genug Anwendungsfälle für Docker und zu wenig Alternativen für die Anwendungsfälle gab. Mir war allerdings nicht klar wie sehr Docker doch schon in den Seilen hängt, und Podman ist ja inzwischen doch schon ein Jahr stabil. Da hab ich Aufholbedarf.


    • [...] Ich empfehle, sowohl die IRC-Kanäle, das Discourse-Forum und insbesondere die GitHub-Bugreports/-Diskussionen zu studieren. Es gibt viele Howtos, aber das Zwischen-den-Zeilen-Lesen und Lernen geschieht via IRC/GitHub.

    Besten Dank, die werd ich durchpflügen. Die Entwicklung von LXD find ich auch sehr ansprechend. Gerade, dass sie den Horizont der Container um Unterstützung für VMs erweitert haben, lässt schon vermuten, dass sich Canonical damit nicht nur ein Hobby zurechtgelegt hat, sondern was brauchbares damit vor hat.


    Speziell zu docker: Wie sichert ihr euer System ab, damit Angriffe nicht auf das Hostsystem durchschlagen?

    Konkret zu dieser Frage hab ich keinen vernünftigen Ratschlag. Unabhängig davon wirst du allerdings eventuell dein blaues Wunder erleben. Docker saut ordentlich in iptables rum. Wenn die Container erstmal auf dem von dir administrierten Server laufen, wirst du nach einem Blick auf die aktiven iptables Regeln das Bedürfnis haben den Server vorsorglich offline zu nehmen ... Man kann Docker das austreiben, muss dann aber selbst dafür sorgen, dass die Container networken können. Das ist mehr als nur ein Gefrickel. Docker hat in der eigenen Doku einen kleinen Abschnitt dazu: https://docs.docker.com/network/iptables/

    Finde ich toll. Ich automatisiere zwar nicht ganz so viel, aber Proxmox bringt ja auch eine eigene API mit... ich ziehe mir dadurch in meinem Unbound Container die Hostnames und Container IDs aus Proxmox und schraub mir damit meine lokale DNS Konfiguration zusammen. Funktioniert ganz gut. :)

    Ich bin kein Fan von split horizon DNS Setups aber man kommt ja wohl doch nicht drum herum wenn geNATtete Container über die öffentliche Domain untereinander kommunizieren können müssen. Da hatte ich auch den Gedanken einen kleinen Unbound Container einzusetzen. Hab den Gedanken dann mit einem "Alter werd nicht schrullig" zu mir selbst verworfen, und hatte Unbound dann direkt am Proxmox Host aufgesetzt. Schön zu lesen, dass mein Gedanke wohl doch nicht so daneben war ^^.

    Hallo Forum,


    nachdem meine Selbsthoster Abstinenz (https://forum.netcup.de/sonsti…-hosted-vs-cloud-dienste/) nicht mal ein Quartal ausgehalten hat, schwirre ich zurzeit um das Thema "Container" herum. Aus technischer Sicht find ich fürs Homelab und meine, großteils privaten und nur ein bisschen kommerziellen, Anwendungszwecke kaum Argumente für mehrere "echte" VMs. Meine Bedürfnisse lassen sich auf jeden Fall mit namespaces und cgroups bedienen.


    Das Interesse nicht am Teller zu sitzen sondern darüber hinauszublicken oder gar von außen am Rand einhändig runterzuhängen ist bei mir generell sehr groß. Bisher war die Angelegenheit "Container" bei mir auf zahlreiche berufliche, und einige private Vorhaben mit Docker beschränkt. Kurz auch Proxmox mit LXC Containern für die privaten Zwecke, bis eben die vorhin besagte Selbsthoster Abstinenz für ein paar Monate durchgeschlagen hat. Durch Jobwechsel kam auch Docker Abstinenz dazu, die jetzt aber auch wieder vorbei ist weil ich auch dort jetzt wieder eine kleine Docker Farm bewirtschaften darf.


    Meine aktuellen, privaten, Anwendungsfälle lassen sich prinzipiell mit Docker abdecken. Es sind Anwendungen, die ich mit bestimmter Software in einem abgeschlossenen System betreiben möchte. Für ein paar Tage hab ich daher überlegt, einfach alles unter das Häubchen "Kubernetes" zu hängen. Das war allerdings eher dem Interesse an K8S geschuldet, und es löst sich damit nicht mein grundlegendes Problem mit Docker: Ich warte ich den Krempel nicht beruflich tagtäglich. Ich hab auch keine Lust, alle paar Tage oder Wochen die Docker Setups nacheinander zu aktualisieren und mir mühsam ein Bild davon zu machen, auf welche verhaltenskreativen Ideen die Maintainer der benutzten Docker Images im aktuellen Realease gekommen sind, um mir beim Update den Tag zu versauen.


    Das Thema Docker und alles was daran hängt hat sich daher für meine privaten Anwendungen mehr oder weniger von Natur aus erledigt - quasi einfach die falsche Technologie.


    Es folgten ein paar Tage Grübelei, ob nicht doch mehrere separate VMs = mehrere Tarife hier bei netcup und der eine oder andere Raspberry Pi im Schrank (seh ich mal ähnlich einer VM) zielführend wären. Das erschien mir zu sinnvoll, technisch zu einfach und zu viel semi-analoger Verwaltungsaufwand. Sorry netcup, aber das CCP ist immer noch die kleine Schwester vom Krümelmonster und wenn ich mir was zu Weihnachten wünschen darf, dann dass ich CCP und SCP über eine REST API oder ein Ansible Modul bedienen kann.


    Also wieder zurück zu Containern. Proxmox auf den Tisch, liegt da ja schon in der Ecke rum. Die Proxmox GUI ist bei mir umsonst, da ich schon bei der ersten Berührung damit angefangen hab, manuelle Klicks durch automatisierte Ansible Tasks zu erledigen. Mittlerweile seh ich nach dem Beenden des Installers nichts mehr davon. Ich kämpfe höchstens damit, einen Weg zu finden, einen Klicki-Bunti-Workflow der GUI auf CLI und Ansibletauglichkeit umzulegen. Daher entstand die Idee, das doch einfach mit Vanilla LXC zu erledigen, ohne Umwege, ganz direkt.


    Und dann ist da ja noch LXD. Aber was ist eigentlich LXD? Es findet sich erstaunlich wenig aktuelles darüber. Abgesehen von den Releases auf der LXD News Page, gibts dazu nur uralte Artikel die "von diesem neuen LXD Dings da" handeln und äußerst skeptisch mutmaßen, ob dieses LXD diesem Docker den Rang ablaufen kann. Dabei sind das für mich zwei paar Schuhe. Trotzdem endet gefühlt fast jeder Artikel über LXD und LXC damit, dass man sich vielleicht doch mal Docker ... und so ...


    Nun bin ich spitz auf LXD. Das was man dazu findet (=die offizielle Doku) und die diversen Scripts dazu von janxb 's ServerUtils (https://github.com/janxb/ServerUtils) lassen mich glauben, dass LXD kein absoluter Schwachsinn ist. Die Reise wird daher wahrscheinlich in diese Richtung gehen.


    Warum also so viel Gelaber und dieser elendslange Monolog den wahrscheinlich schon viele Nerds auf einer verlängerten Toilettensitzung mit dem Alter Ego geführt habeen (daher eigentlich eh ein Dialog)? Mich interessieren eure Anwendungen und Erfahrungen mit Containern. Was treibt ihr damit? Warum Container und nicht vollvirtualisiert? Warum vollvirtualisiert und nicht Container? Warum Docker und nicht *insert-other-container-technology*? Setzt jemand Kubernetes ein obwohls technisch totaler Overkill ist? Was ist mit Proxmox? Schmeißt noch docker-compose, Swarm, OpenStack, RancherOS, Core OS, und was euch sonst noch zum Thema "Container" einfällt, ins Feuer. Ob dieser Thread als einsamer Monolog ohne Antwort, oder als gediegen geführter Flamewar über LXC vs. Docker endet ist mir egal. Mich interessiert, was euch an Containern interessiert, und was ihr damit aus welchen Gründen tut oder nicht tut.

    Mailcow zu warten ist eigentlich ein Kinderspiel, wenn man Backups automatisiert und ab und zu mal das Update-Skript anstößt. Das Problem ist da mehr die Wartung des Systems darunter und das hast du ja dann wieder mit einem VPS für einen Webmailclient ;)

    Die Risiken beim Hosting eines ganzen Mailservers inklusive Webmailclient sind aber doch ganz andere als die beim Hosting eines einfachen Webmailclients, den man nicht mal backuppen muss und bei Ausfall auch kurzfristig durch Alternativen ersetzen kann.

    Was spricht gegen die netcup Angebote? Wenns nur an den Webclients liegt - die kannst du dann ja immer noch zB. auf einem VPS200 mit Software deiner Wahl selbst hosten. Die Wartung eines Webmailclients ist ja ein Kinkerlitzchen wenn hinten dran nicht noch ein vollständiges Mailserversetup hängt.

    Wo genau hast du deine Mails laufen, wenn ich fragen darf? Hier bei Netcup über den Webspace, oder Groupware? Oder nen anderer Anbieter? Bin irgendwie auf der Suche nach einer preisgünstigen Alternative wo ich ohne Probleme ne Hand voll Postfächern mit 30 40 Domains von unterschiedlichen Providern laufen lassen kann. Läuft zur Zeit auf nem VPS 500 hier mit Mailcow. Aber mir fehlt echt die Zeit zum administrieren und pflegen :/

    mailbox.org - preislich sehr OK, aber im Vergleich zu einem VPS500 vermutlich uninteressant, falls du die Mailboxen nicht an einer Hand abzählen kannst. Für meinen Fall gerade noch OK und funktioniert sehr gut.

    Nach einigem hin und her und Experimenten hab ich inzwischen fast alles bei Cloud Diensten untergebracht. Nur ein paar wenige Webspaces laufen auf einem VPS 200. Und ich bin zufrieden mit der Lösung. Ganz ausbleiben wird dieses Hobby sowieso nicht, da im Haushalt diverse Raspberry Pis ihre Dienste verrichten. Online und öffentlich zugänglich ist jetzt aber kaum mehr was zu warten und zu pflegen.


    Übrig bleibt jetzt ein Sonderangebots RS2000 SSDx4, den ich am 27. September bestellt hab und der 12 Monate Mindestlaufzeit hat. Vielleicht findet sich hier ein Abnehmer? Die Leistungen sind gleich zum normalen RS2000, nur sinds 240GB statt 60GB SSD. Die ersten 6 Monate sind bezahlt (etwa 78 Euro), davon sind jetzt noch drei Monate übrig (also etwa 39 Euro). Die Gebühr für den Inhaberwechsel wird von netcup dem neuen Inhaber verrechnet und ist um einiges weniger als die 39 Euro. Wären also drei Monate zu einem geringeren Preis, und dann der normale Preis - aber eben 4-fache SSD Kapazität. Das Sonderangebot gibts inzwischen nicht mehr - zumindest find ichs nicht. Falls jemand Interesse hat, dann am besten per PN bei mir melden. Ist nur ein kleiner kurzer Formalismus. Ich lass die Ressourcen ungern jetzt noch 9 Monate ungenutzt gebunden.

    So wie ich das verstanden habe, gibt es jetzt die Möglichkeit mit den privaten Repos, aber man kann nur 3 Personen dazu einladen, will man unbegrenzt haben, muss man zahlen.

    Genauso ists. Meine Repositories liegen seit gestern bei GitHub, und auch wenns fachlich und technisch nichts zu meckern gibt, schmeckts mir nicht so recht. Ich wünschte ich könnte konkret sagen warum, ich kanns aber nicht. Vielleicht auch nur deswegen, weil die Repositories keine alltägliche Relevanz haben, ich nur selten commite und Git quasi per se mehrfach gebackupped ist. Außerdem ist das Hosting einer GitLab oder Gitea Instanz mit Docker so wartungsfrei wie ein Badezimmerteppich. Ich bin daher noch am überlegen und probieren, obs bei GitHub bleibt oder doch ne selbst gehostete GitLab Instanz wird, mit der ich dann auch gleich die statischen Websites mittels GitLab Pages ausliefern kann.

    Da liegt das Problem eher daran, dass man Mails nicht in einem Script verschickt, das den Request des Users handelt, sondern in eine DB oder File Queue legt und dann per Cronjob die Mails verschickt. Aber genau das ists ja: Wenn mans selbst hostet, versucht mans erst mal dort zu lösen und investiert Zeit, und das ist ein Hamsterrad in das man immer wieder reinspringt.


    mailbox.org für die E-Mails steht jetzt erst mal, muss nur noch die Mailboxen umsiedeln bzw die beteiligten informieren.


    GitHub und das ich drauf gekommen bin, dass private Repos jetzt kostenlos sind, warn der Stein des Anstoßes weil ich damit die statischen Pages hosten wollte. Da dort nur eine custom domain pro Page möglich ist, sind sie aber wieder rausgefallen. Da gitlab.com so ekelhaft langsam ist, hab ich GitHub jetzt noch ne Chance gegeben, um mir zumindest eine eigene Git(Lab/ea) Instanz zu sparen, die statischen Pages kann ich immer noch anders lösen. Also GitHub geöffnet, neues Repo, Import starten ... da steht seit ner dreiviertel Stunde "Detecting your project’s version control system…". Auth Daten hab ich bereits eingegeben. Das ist ja n guter Start mit GitHub :wacko:

    Ringelnatz Genau dahin wandern die E-Mails jetzt. Hatte ich die ganze Zeit schon am Schirm und vorhin dafür entschieden. Allerdings ohne Kalender und Kontakte, das läuft dort wieder nur über DAV.

    Mit den Backups gehts mir ähnlich wie dir. Mit restic als Tool und Backblaze als Target hab ich aber eine relativ einfache Kombination, mit der ich Backups nach wie vor selbst machen kann, und sichere mich damit gegen Anbieter-Oopsies ab. Auch git Repositories lassen sich per Scriptbeinfach klonen und backuppen.


    Monitoring ist auch so eine Sache, die man gefühlt nie ausführlich genug machen kann. So wie du es beschreibst, das triffts ja sehr gut. Und dann geht das ganze insgesamt in eine Richtung, wo man einfach die Zeit nicht mehr aufwenden will und vielleicht sogar schludrig arbeitet.

    Ihr habt alle genau das was ich seit Tagen denke, auf die eine oder andere Weise getroffen, und ich denke ihr habt mir geholfen.


    Das Gefummel hat mir Spaß gemacht, aber es wurde dann doch immer wieder mal nervig. Aus "ich probier das nur mal", werden zu oft ganze Nachmittage. Und ich bastel dann ständig an den Servern rum, nur um irgendwas zu optimieren oder zu vereinfachen - anstatt die Dienste am sich zu nutzen. Jetzt gerade bin ich wohl an dem Punkt angekommen, an dem vereinfachen und optimieren nur mehr heißen kann, das ganze auf einen Anbieter zu verlagern, wo ichs nur mehr mit ein paar Klicks einrichten muss. Außerdem ist mir inzwischen klar, dass ich vor allem die Verantwortung des Mailservers loswerden will. Ich nutze E-Mails selbst sehr viel, und einer der Nutzer ist ein sehr aktiver eBayer und ist in dem Zusammenhang ohne E-Mails auch irgendwie aufgeschmissen.


    Deshalb hab ich diese Unternehmung heute mal angefangen. Bitwarden verlegt auf bitwarden.com - funzt. Kontakte und Kalender zu Google, kotz, würg, aber funzt besser weil ich jetzt keine DAV Clients mehr brauch, die mehr schlecht als recht funktionieren, ich war sowieso schon der einzige in der Runde der sich damit noch rumgeschlagen hat. Git Repositories bei gitlab.com untergebracht, mit dem Ziel die statischen Seiten dort direkt über GitLab Pages auszuliefern. Und da fängts schon an. Beim Import der Repos bei jedem Repo "Failed" - obwohl sie vollständig importiert wurden. Und gitlab.com ist so saulangsam, ich erinner mich bei jedem Klick an den Wählton des alten 56k Modems ... Bei den Pages wart ich seit Stunden drauf, dass das Let's Encrypt Zertifikat erstellt wird. Also das war schon mal ne teilweise Niete, wobei ich selten auf der Weboberfläche bin und auch nicht jeden Tag ne Page einricht.

    Dann einen netcup Webhosting Tarif bestellt. Jut. Plesk ist unfassbar hässlich. Da kann netcup nichts dafür, aber das ist ja glatt nochmal unübersichtlicher geworden, als es vor Jahren schon war, als ichs zuletzt benutzen musste. Alles in mir sträubt sich, das zu benutzen, aber es ist ebenso nichts was ich täglich machen muss.


    Bei den E-Mails kommt leider auch die Erinnerung von damals (anderer Webhosting Anbieter) zurück. Das ist nichts handfestes, aber das fühlt sich unangenehm an. Auch hier liegts aber keineswegs an netcup.


    Ich bin mir noch nicht sicher wie ich weiter mach. Eventuell die Strategie splitten und die Dienste die im Alltag produktiv benötigt werden (E-Mail, Bitwarden, Kalender, Kontakte) bei einem Anbieter unterbringen, und Git und die Websites (keine davon irgendwie kritisch oder Geld verdienend) doch noch selbst hosten. Dann hätt ich noch ne kleine Spielerei übrig, hinter der aber keine wirkliche Verantwortung steht. Die noch unwichtigeren Dinge wie der einmal im Monat genutzte Mumble/Murmur Server hätten dann auch noch einen Platz. Der GitLab/Gitea Server und der Webserver warn immer schon die ersten die ich für Experimente genutzt hab, weil die eben völlig unkritisch und einfach aus den Backups wiederherstellbar sind. Abgesehen davon hab ich nen 6 Wochen alten Sonderangebots RS2000 mit 12 Monaten Bindefrist, den ich jetzt 10 Monate brach liegen lassen müsste. Und die netcup Server sind einfach zu gute Produkte - das ist wie mit irgendeinem Gadget das man eigentlich nicht unbedingt braucht aber es ist so gut dass mans trotzdem haben will.


    Mal kucken was das wird.

    Hallo Forum,


    ich betreibe seit Jahren diverse Server für verschiedene Dienste wie E-Mail, Websites, Git, Sprachserver (Mumble), Alexa Skills, und einige andere. Alles davon ließe sich auch mit gehosteten Diensten betreiben.

    Zwar hab ich relativ wenig Aufwand, da die Infrastruktur in Ansible Playbooks festgehalten ist, und die paar Server mit wenig Aufwand aktuell zu halten sind, aber trotzdem hat man dann und wann was damit zu tun. Ihr kennt das ja, irgendwas hakt alle paar Monate mal, dann und wann probiert man was aus oder tut irgendwas, das man nicht tun muss, aber man tut es weil mans kann. Klassisches Homelab Treiben eben.


    Angefangen hab ich damit damals, weil ich vom E-Mail Hosting bei meinem damaligen Anbieter (nicht netcup) angepisst war. Massenhaft Spam, trotz Filter, und wenn mal eine E-Mail nicht ankam, wußte man auch nicht warum. Dann auch gleich das Webhosting auf einen eigenen Server gezogen, und dann gehts eben so dahin bis man dann X eigene Dienste am laufen hat. Aus Interesse und um mich auf dem Gebiet auch beruflich zu bilden, hab ich das dann immer mehr strukturiert, optimiert, umgebaut, weiter optimiert usw.


    Jetzt, nachdem ich alle Ansible Playbooks refactored und die Dienste neu und wieder sauberer aufgesetzt hab, frag ich mich seit Tagen: Wozu? Es wär auf jeden Fall einfacher, gemanagede bzw. Cloud Dienste zu nutzen. GitHub/Lab mit static pages für Git und statische Seiten, ein einfaches netcup Webhosting für E-Mails, nicht statische Websites und Alexa Skills (nodejs Dienste), und die anderen Dienste gibts ebenso als SaaS bzw. ich könnte andere Dienste nutzen.


    Vorteile:

    - Kein Aufwand mehr mit den Servern.

    - Keine Verantwortung mehr in der Richtung, auch wenns nur wenige Personen aus der eigenen Familie sind, die die Dienste nutzen.

    - Neue Features bekomm ich einfach wenn sie beim Anbieter verfügbar sind, ich muss nicht erst selbst die Software auf eine andere Hauptversion bringen.

    - Nicht mehr um Backups kümmern müssen.


    Nachteile:

    - Keine Kontrolle mehr über die eigenen Daten. Den Nachteil zweifle ich aber an: Ob meine Daten auf meinen Servern sicherer sind, als auf Servern die von bezahltem, professionellem Personal durchgehend gewartet werden?

    - Was ausprobieren, für mal eben oder für ein paar Wochen wird schwieriger. Wobei ich "mal eben ausprobieren" ja gar nicht mehr fördern will, genau dadurch wurden die selbst gehosteten Dienste ja mehr.


    Zurzeit sind meine hauptsächlichen Bedenken, dass ich dann meine Daten auf die Server von mehreren, verschiedenen Anbietern verteile, und nicht mehr zentral und selbst in der Hand hab. Warum genau mich das stört, kann ich aber nicht sagen. Die "gläserner Mensch" Paranoia teile ich nicht. Es hat aber schon was, das ganze Gerümpel selbst in der Hand zu haben. Es hat aber auch was, das ganze Gerümpel nicht selbst verwalten und verantworten zu müssen ...


    Was treibt euch dazu, eure eigenen Server zu betreiben? Hat jemand von euch seine Server gegen gehostete Dienste getauscht oder umgekehrt? Warum habt ihr das gemacht?

    Ich wollte eher wissen, ob jemand von euch einen extra Datenbank-Server betreibt und wieso er das für sich so entschieden hat.

    Etwas ähnliches spiel ich grad durch. Zwar nicht mit Datenbanken, aber mit anderen Diensten. So wie in deinem Fall sind die leistungstechnischen und finanziellen Aspekte vernachlässigbar. Ich teil meine Dienste zurzeit schlicht und einfach deswegen auf mehrere getrennte Systeme auf, weil meine Anwendungen ein klassischer Fall von #homelab sind, und da experimentiert man doch dann und wann mal herum. Da tauscht man mal einen einzelnen Dienst aus. In deinem Fall wirst du vielleicht mal versuchen den Kumpels Mumble/Murmur schmackhaft zu machen statt TS, oder man macht einen gröberen Versionssprung bei einem Dienst oder sonstiger Software, die eine aufwändige Baustelle aufmacht. Und da es mittlerweile die technischen Mittel zulassen, viele einzelne kleine Server leistbar zu betreiben (kann man da auch von Microservices sprechen?), seh ich keinen Grund mehr, wie vor zwanzig Jahren einen einzigen Server bis auf Anschlag mit Diensten zuzustopfen wie einen Reisekoffer von Kim Kardashian. Ich will nicht mehr nachdenken, wen aus der Familie, Verwandschaft oder Freundschaft ich noch belästige, wenn ich Dienst X für einen Tag in den dreckigen binären Abgrund reiß, nur weil ich Server X nach /dev/null beförder um irgendwas umzustellen oder auszuprobieren.


    Der Sicherheitsaspekt ist wahrscheinlich in deinem Fall auch vernachlässigbar. Datenbankserver, ich nehm an es geht hier am Webserver um MySQL, ist üblicherweise das geringste Problem. Die pure Anwesenheit einer Wordpress Instanz stellt jegliche Sicherheitsbedenken in Sachen Datenbanken in den Hintergrund, und mit anderen gängigen Webframeworks verhält es sich ähnlich. Nicht die Datenbank ist die Schwachstelle, sondern das was im Webroot liegt. Und wenn das was im Webroot liegt angegriffen wird, ist auch die Datenbank potentiell dahin, egal wo sie liegt - weil das Zeug im Webroot üblicherweise alle Zugangsdaten zur Datenbank in Plaintext und gut sichtbar präsentiert. In 15 Jahren als hauptberuflicher Web Entwickler hab ichs übrigens kein einziges mal erlebt, dass eine Datenbank was abbekommen hat. Lohnt sich auch nicht, das einzig interessante an Datenbanken, Personendatensätze, gibts für weniger Risiko und weniger Aufwand selbst bei legalen Adresshändlern um etwa 12 Cent pro Stück.


    Ich kenn natürlich deine Dienste und Websites nicht, ich würd aber bei den genannten Datenbankgrößen tippen, dass du den Webserver mitsamt Datenbank leistungstechnisch auf einem VPS200, und den TS Server auch auf einem eigenen VPS200 unterbringen kannst, ohne in der Praxis Geschwindigkeitsnachteile zu bemerken. Ob die 20GB reichen, kommt natürlich auf die Menge an Daten in den Files an. Du hast bei den VPS aber im Gegensatz zu den RS den Vorteil, die Dinger stundenweise kündigen und austauschen zu können, falls es mal mehr braucht.

    Hi Forum,

    ich hab beim RS2000 Angebot mit 240GB Speicher zugeschlagen, und hatte im Sinn, darauf mit Proxmox alle meine diversen selbst gehosteten Dienste auf mehrere LXC Container aufzuteilen. Jetz plan ich grad durch, und seh, dass einer davon (Bitwarden), sich nur mittels Docker betreiben lässt. Ich dachte bisher, dass Docker in einem LXC Container unter "nested" fällt, ich muss ja für Docker auch die nested Checkbox im LXC Container in Proxmox setzen. Dafür sollte meinem Informationsstand nach aber das VMX Flag nötig sein, das 2€ pro Core kostet und beim Support aktiviert werden muss. Jetzt hab ich allerdings einfach mal versucht, einen Docker Container in einem LXC Container zu starten, und das funktioniert einwandfrei.

    Versteh ich was falsch? Oder funktioniert Docker in einem LXC Container auch ohne das VMX Flag?