Posts by sensorback

    Da liegt das Problem eher daran, dass man Mails nicht in einem Script verschickt, das den Request des Users handelt, sondern in eine DB oder File Queue legt und dann per Cronjob die Mails verschickt. Aber genau das ists ja: Wenn mans selbst hostet, versucht mans erst mal dort zu lösen und investiert Zeit, und das ist ein Hamsterrad in das man immer wieder reinspringt.


    mailbox.org für die E-Mails steht jetzt erst mal, muss nur noch die Mailboxen umsiedeln bzw die beteiligten informieren.


    GitHub und das ich drauf gekommen bin, dass private Repos jetzt kostenlos sind, warn der Stein des Anstoßes weil ich damit die statischen Pages hosten wollte. Da dort nur eine custom domain pro Page möglich ist, sind sie aber wieder rausgefallen. Da gitlab.com so ekelhaft langsam ist, hab ich GitHub jetzt noch ne Chance gegeben, um mir zumindest eine eigene Git(Lab/ea) Instanz zu sparen, die statischen Pages kann ich immer noch anders lösen. Also GitHub geöffnet, neues Repo, Import starten ... da steht seit ner dreiviertel Stunde "Detecting your project’s version control system…". Auth Daten hab ich bereits eingegeben. Das ist ja n guter Start mit GitHub :wacko:

    Ringelnatz Genau dahin wandern die E-Mails jetzt. Hatte ich die ganze Zeit schon am Schirm und vorhin dafür entschieden. Allerdings ohne Kalender und Kontakte, das läuft dort wieder nur über DAV.

    Mit den Backups gehts mir ähnlich wie dir. Mit restic als Tool und Backblaze als Target hab ich aber eine relativ einfache Kombination, mit der ich Backups nach wie vor selbst machen kann, und sichere mich damit gegen Anbieter-Oopsies ab. Auch git Repositories lassen sich per Scriptbeinfach klonen und backuppen.


    Monitoring ist auch so eine Sache, die man gefühlt nie ausführlich genug machen kann. So wie du es beschreibst, das triffts ja sehr gut. Und dann geht das ganze insgesamt in eine Richtung, wo man einfach die Zeit nicht mehr aufwenden will und vielleicht sogar schludrig arbeitet.

    Ihr habt alle genau das was ich seit Tagen denke, auf die eine oder andere Weise getroffen, und ich denke ihr habt mir geholfen.


    Das Gefummel hat mir Spaß gemacht, aber es wurde dann doch immer wieder mal nervig. Aus "ich probier das nur mal", werden zu oft ganze Nachmittage. Und ich bastel dann ständig an den Servern rum, nur um irgendwas zu optimieren oder zu vereinfachen - anstatt die Dienste am sich zu nutzen. Jetzt gerade bin ich wohl an dem Punkt angekommen, an dem vereinfachen und optimieren nur mehr heißen kann, das ganze auf einen Anbieter zu verlagern, wo ichs nur mehr mit ein paar Klicks einrichten muss. Außerdem ist mir inzwischen klar, dass ich vor allem die Verantwortung des Mailservers loswerden will. Ich nutze E-Mails selbst sehr viel, und einer der Nutzer ist ein sehr aktiver eBayer und ist in dem Zusammenhang ohne E-Mails auch irgendwie aufgeschmissen.


    Deshalb hab ich diese Unternehmung heute mal angefangen. Bitwarden verlegt auf bitwarden.com - funzt. Kontakte und Kalender zu Google, kotz, würg, aber funzt besser weil ich jetzt keine DAV Clients mehr brauch, die mehr schlecht als recht funktionieren, ich war sowieso schon der einzige in der Runde der sich damit noch rumgeschlagen hat. Git Repositories bei gitlab.com untergebracht, mit dem Ziel die statischen Seiten dort direkt über GitLab Pages auszuliefern. Und da fängts schon an. Beim Import der Repos bei jedem Repo "Failed" - obwohl sie vollständig importiert wurden. Und gitlab.com ist so saulangsam, ich erinner mich bei jedem Klick an den Wählton des alten 56k Modems ... Bei den Pages wart ich seit Stunden drauf, dass das Let's Encrypt Zertifikat erstellt wird. Also das war schon mal ne teilweise Niete, wobei ich selten auf der Weboberfläche bin und auch nicht jeden Tag ne Page einricht.

    Dann einen netcup Webhosting Tarif bestellt. Jut. Plesk ist unfassbar hässlich. Da kann netcup nichts dafür, aber das ist ja glatt nochmal unübersichtlicher geworden, als es vor Jahren schon war, als ichs zuletzt benutzen musste. Alles in mir sträubt sich, das zu benutzen, aber es ist ebenso nichts was ich täglich machen muss.


    Bei den E-Mails kommt leider auch die Erinnerung von damals (anderer Webhosting Anbieter) zurück. Das ist nichts handfestes, aber das fühlt sich unangenehm an. Auch hier liegts aber keineswegs an netcup.


    Ich bin mir noch nicht sicher wie ich weiter mach. Eventuell die Strategie splitten und die Dienste die im Alltag produktiv benötigt werden (E-Mail, Bitwarden, Kalender, Kontakte) bei einem Anbieter unterbringen, und Git und die Websites (keine davon irgendwie kritisch oder Geld verdienend) doch noch selbst hosten. Dann hätt ich noch ne kleine Spielerei übrig, hinter der aber keine wirkliche Verantwortung steht. Die noch unwichtigeren Dinge wie der einmal im Monat genutzte Mumble/Murmur Server hätten dann auch noch einen Platz. Der GitLab/Gitea Server und der Webserver warn immer schon die ersten die ich für Experimente genutzt hab, weil die eben völlig unkritisch und einfach aus den Backups wiederherstellbar sind. Abgesehen davon hab ich nen 6 Wochen alten Sonderangebots RS2000 mit 12 Monaten Bindefrist, den ich jetzt 10 Monate brach liegen lassen müsste. Und die netcup Server sind einfach zu gute Produkte - das ist wie mit irgendeinem Gadget das man eigentlich nicht unbedingt braucht aber es ist so gut dass mans trotzdem haben will.


    Mal kucken was das wird.

    Hallo Forum,


    ich betreibe seit Jahren diverse Server für verschiedene Dienste wie E-Mail, Websites, Git, Sprachserver (Mumble), Alexa Skills, und einige andere. Alles davon ließe sich auch mit gehosteten Diensten betreiben.

    Zwar hab ich relativ wenig Aufwand, da die Infrastruktur in Ansible Playbooks festgehalten ist, und die paar Server mit wenig Aufwand aktuell zu halten sind, aber trotzdem hat man dann und wann was damit zu tun. Ihr kennt das ja, irgendwas hakt alle paar Monate mal, dann und wann probiert man was aus oder tut irgendwas, das man nicht tun muss, aber man tut es weil mans kann. Klassisches Homelab Treiben eben.


    Angefangen hab ich damit damals, weil ich vom E-Mail Hosting bei meinem damaligen Anbieter (nicht netcup) angepisst war. Massenhaft Spam, trotz Filter, und wenn mal eine E-Mail nicht ankam, wußte man auch nicht warum. Dann auch gleich das Webhosting auf einen eigenen Server gezogen, und dann gehts eben so dahin bis man dann X eigene Dienste am laufen hat. Aus Interesse und um mich auf dem Gebiet auch beruflich zu bilden, hab ich das dann immer mehr strukturiert, optimiert, umgebaut, weiter optimiert usw.


    Jetzt, nachdem ich alle Ansible Playbooks refactored und die Dienste neu und wieder sauberer aufgesetzt hab, frag ich mich seit Tagen: Wozu? Es wär auf jeden Fall einfacher, gemanagede bzw. Cloud Dienste zu nutzen. GitHub/Lab mit static pages für Git und statische Seiten, ein einfaches netcup Webhosting für E-Mails, nicht statische Websites und Alexa Skills (nodejs Dienste), und die anderen Dienste gibts ebenso als SaaS bzw. ich könnte andere Dienste nutzen.


    Vorteile:

    - Kein Aufwand mehr mit den Servern.

    - Keine Verantwortung mehr in der Richtung, auch wenns nur wenige Personen aus der eigenen Familie sind, die die Dienste nutzen.

    - Neue Features bekomm ich einfach wenn sie beim Anbieter verfügbar sind, ich muss nicht erst selbst die Software auf eine andere Hauptversion bringen.

    - Nicht mehr um Backups kümmern müssen.


    Nachteile:

    - Keine Kontrolle mehr über die eigenen Daten. Den Nachteil zweifle ich aber an: Ob meine Daten auf meinen Servern sicherer sind, als auf Servern die von bezahltem, professionellem Personal durchgehend gewartet werden?

    - Was ausprobieren, für mal eben oder für ein paar Wochen wird schwieriger. Wobei ich "mal eben ausprobieren" ja gar nicht mehr fördern will, genau dadurch wurden die selbst gehosteten Dienste ja mehr.


    Zurzeit sind meine hauptsächlichen Bedenken, dass ich dann meine Daten auf die Server von mehreren, verschiedenen Anbietern verteile, und nicht mehr zentral und selbst in der Hand hab. Warum genau mich das stört, kann ich aber nicht sagen. Die "gläserner Mensch" Paranoia teile ich nicht. Es hat aber schon was, das ganze Gerümpel selbst in der Hand zu haben. Es hat aber auch was, das ganze Gerümpel nicht selbst verwalten und verantworten zu müssen ...


    Was treibt euch dazu, eure eigenen Server zu betreiben? Hat jemand von euch seine Server gegen gehostete Dienste getauscht oder umgekehrt? Warum habt ihr das gemacht?

    Ich wollte eher wissen, ob jemand von euch einen extra Datenbank-Server betreibt und wieso er das für sich so entschieden hat.

    Etwas ähnliches spiel ich grad durch. Zwar nicht mit Datenbanken, aber mit anderen Diensten. So wie in deinem Fall sind die leistungstechnischen und finanziellen Aspekte vernachlässigbar. Ich teil meine Dienste zurzeit schlicht und einfach deswegen auf mehrere getrennte Systeme auf, weil meine Anwendungen ein klassischer Fall von #homelab sind, und da experimentiert man doch dann und wann mal herum. Da tauscht man mal einen einzelnen Dienst aus. In deinem Fall wirst du vielleicht mal versuchen den Kumpels Mumble/Murmur schmackhaft zu machen statt TS, oder man macht einen gröberen Versionssprung bei einem Dienst oder sonstiger Software, die eine aufwändige Baustelle aufmacht. Und da es mittlerweile die technischen Mittel zulassen, viele einzelne kleine Server leistbar zu betreiben (kann man da auch von Microservices sprechen?), seh ich keinen Grund mehr, wie vor zwanzig Jahren einen einzigen Server bis auf Anschlag mit Diensten zuzustopfen wie einen Reisekoffer von Kim Kardashian. Ich will nicht mehr nachdenken, wen aus der Familie, Verwandschaft oder Freundschaft ich noch belästige, wenn ich Dienst X für einen Tag in den dreckigen binären Abgrund reiß, nur weil ich Server X nach /dev/null beförder um irgendwas umzustellen oder auszuprobieren.


    Der Sicherheitsaspekt ist wahrscheinlich in deinem Fall auch vernachlässigbar. Datenbankserver, ich nehm an es geht hier am Webserver um MySQL, ist üblicherweise das geringste Problem. Die pure Anwesenheit einer Wordpress Instanz stellt jegliche Sicherheitsbedenken in Sachen Datenbanken in den Hintergrund, und mit anderen gängigen Webframeworks verhält es sich ähnlich. Nicht die Datenbank ist die Schwachstelle, sondern das was im Webroot liegt. Und wenn das was im Webroot liegt angegriffen wird, ist auch die Datenbank potentiell dahin, egal wo sie liegt - weil das Zeug im Webroot üblicherweise alle Zugangsdaten zur Datenbank in Plaintext und gut sichtbar präsentiert. In 15 Jahren als hauptberuflicher Web Entwickler hab ichs übrigens kein einziges mal erlebt, dass eine Datenbank was abbekommen hat. Lohnt sich auch nicht, das einzig interessante an Datenbanken, Personendatensätze, gibts für weniger Risiko und weniger Aufwand selbst bei legalen Adresshändlern um etwa 12 Cent pro Stück.


    Ich kenn natürlich deine Dienste und Websites nicht, ich würd aber bei den genannten Datenbankgrößen tippen, dass du den Webserver mitsamt Datenbank leistungstechnisch auf einem VPS200, und den TS Server auch auf einem eigenen VPS200 unterbringen kannst, ohne in der Praxis Geschwindigkeitsnachteile zu bemerken. Ob die 20GB reichen, kommt natürlich auf die Menge an Daten in den Files an. Du hast bei den VPS aber im Gegensatz zu den RS den Vorteil, die Dinger stundenweise kündigen und austauschen zu können, falls es mal mehr braucht.

    Hi Forum,

    ich hab beim RS2000 Angebot mit 240GB Speicher zugeschlagen, und hatte im Sinn, darauf mit Proxmox alle meine diversen selbst gehosteten Dienste auf mehrere LXC Container aufzuteilen. Jetz plan ich grad durch, und seh, dass einer davon (Bitwarden), sich nur mittels Docker betreiben lässt. Ich dachte bisher, dass Docker in einem LXC Container unter "nested" fällt, ich muss ja für Docker auch die nested Checkbox im LXC Container in Proxmox setzen. Dafür sollte meinem Informationsstand nach aber das VMX Flag nötig sein, das 2€ pro Core kostet und beim Support aktiviert werden muss. Jetzt hab ich allerdings einfach mal versucht, einen Docker Container in einem LXC Container zu starten, und das funktioniert einwandfrei.

    Versteh ich was falsch? Oder funktioniert Docker in einem LXC Container auch ohne das VMX Flag?

    Da ist ja einiges an konkreten Usecases dabei, Danke! Der VPS 200 wird dann schon reichen.


    Mit SOGo hatte ich spekuliert, aber das Exchange Protokoll und die Weboberflächen brauch ich nicht. Einen Webmailclient hab ich auf einem anderen Server mit ein paar anderen Webspaces liegen, dadurch hab ich sowas wie separation of concerns weil Mailen und Webserven schön getrennt sind. Dann lässt es sich etwas besser damit jonglieren und auch die Ansible Playbooks werden schlanker.

    Hallo Forum,


    ich bau zurzeit meine eigenen privaten Dienste um und erneuere dabei auch den Mailserver. Bisher lief für drei Jahre ein Postfix/Dovecot/Amavis/ClamAV/Spamassassin Konstrukt auf Debian Jessie für 7 Mailboxen mit durchschnittlichem Mailaufkommen: inklusive Spam sinds täglich etwa 100 Mails die ankommen, und etwa 10-20 ausgehende. Zurzeit nehmen die Mailboxen 5,4GB Speicher ein. Betriebssystem, Logs, apt Cache machen nochmal etwa 4 GB, also insgesamt knapp 10GB. Das ganze liegt zurzeit auf einem Root Server M Generation 6 (2 Kerne, 6 GB RAM, 240 GB SATA), auf dem sonst nur noch das tägliche Backup läuft. Das ist für 7 Mailboxen völlig sinnlos überdimensioniert.


    Das neue Setup ist Postfix/Dovecot/Rspamd auf Debian Stretch (das Setup von Thomas Leister - kennt man ja). Das einzig aufwändige am alten und neuen Aufbau ist im Prinzip das Spamhandling, und dabei sollte Rspamd noch weniger Ressourcen brauchen, als die Amavis/ClamAV/SpamAssassin Kombination. Daher hab ich überlegt, ob nicht einfach ein VPS 200 G8 mit den 20GB SSD, 2GB RAM und 1 vCore reicht?


    Die Mailboxen werden nicht so schnell größer werden. Nur zwei der Mailboxen sind groß und machen ca. 5 der 5,4GB aus, das sind aber über ein Jahrzehnt gewachsene Mailboxen. Die anderen User löschen regelmäßig die Mails inklusive Papierkorb. Also 20GB SSD reichen. Auch die 2GB RAM werden locker reichen. Unsicher bin ich nur beim vCore. Geteilter, nicht zugesicherter Core. Ich hab verschiedenes dazu im Forum gefunden, aber großteils nur Benchmarks, und wenig praktische Berichte mit den ganz kleinen VPS. Wie verhält sich so ein einzelner vCore? Hat jemand einen Mailserver in ähnlicher Größe auf einem VPS 200 laufen? Hat jemand Erfahrungen mit irgendeinem regelmäßig produktiv genutzten Dienst auf einem VPS 200 (Mailserver, Webserver, Teamspeak, Cloud, ...)? Gibts da manchmal Engpässe? Kanns passieren dass der Server ein halbes Jahr super läuft, und dann kommt jemand auf die gleiche Maschine und nimmt einem ständig Leistung? Beim Mailversand und Empfang ists ja generell eher egal wenns mal ein paar Sekunden länger dauert. Aber ich kann mir vorstellen, dass es unter Umständen bei mehreren Mails gleichzeitig mal knapp wird, und dann vielliecht Mails wegen irgendwelcher Timeouts nicht ankommen. Oder dass vielleicht Dovecot bei etwas mehr Last mal nicht hinterher kommt, und dann der Versandvorgang im Mailclient länger dauert (und da werden User ja schnell mal ungeduldig wenn der Ladebalken mal ein paar Sekunden länger läuft). Oder sind diese Bedenken unnötig und auch ein VPS 200 fadisiert sich bei diesem Mailaufkommen?

    Hallo Forum,


    ich hab 3 Server bei netcup: 1x Root Server, 2x kleine vServer, und hab überlegt, ob ichs irgendwie sinnvoll schaffen kann, diesen Servern einen weiteren mit pfSense davor zu setzen. Quasi Cloud Firewall für Cloud Server, um das Gepfriemel mit iptables auf jedem einzelnen Server durch eine zentrale Lösung zu ersetzen.


    Ich scheitere aber daran, eine Idee zu finden, wie ich die drei Server dazu bring, über die Firewall online zu gehen, und alles was jeweils von der öffentlichen IP reinkommt, zu ignorieren. Mir fällt immer nur ein, alles in ein OpenVPN und auf den Servern per iptables alles dicht machen außer OpenVPN von und zur Firewall. So richtig glücklich macht mich die Idee allerdings nicht.


    Gibts ansonsten irgendwelche Lösungswege für soetwas? Hat jemand so ein, oder ein ähnliches Setup?

    Ein Snapshot ist in dem Fall schon eine Lösungsmöglichkeit, wenn auch nicht optimal. In so einen Snapshot schleichen sich dann ja doch mal Dinge ein, "das mach ich gleich auch noch in den Snapshot, das ist doch immer das gleiche" - und dann wird das Script schon lückenhaft. Ist allerdings keine große Sache in dem Fall.


    Ich dachte einfach nur, dass ich das im SCP schon gesehen hatte, bin ich aber wohl einfach nur von anderen Anbietern und Oberflächen gewohnt.


    Wie das UI mäßig aussehen kann, kann man sich zB bei NAMEENTFERNT ansehen. Würd ich auf jeden Fall als sinnvolles Feature sehen. Wie janxb schon angemerkt hat, gehts gerade bei den VPS Angeboten ja durchaus auch mal in Richtung "Wegwerfserver". Die nutzt man vielleicht auch für Experimente, oder man probiert für ein Setup auch mal mehrere Distributionen durch. Da wärs schon hilfreich, wenn der "Einstieg" logistisch etwas einfacher ist.

    Hallo Forum,


    ich bau mir zurzeit ein Setupscript und teste das immer wieder mit einem taufrisch aufgesetztem VPS 200. Also im SCP Debian 9 Minimal installieren, dann das Script auf dem Server durchlaufen lassen, Optimierungen anbringen, und von vorn. Das nur nebenbei, die eigentliche Frage die ich mir stelle, da ich dabei sehr oft das Debian Image einspiele: Gibts eine Möglichkeit, einen Public Key auf die VM nach /root/.ssh/authorized_keys zu bringen?

    Per extralangsamen VNC mit dem generierten root Passwort einloggen und dann den Public Key per scp von einer anderen Maschine kopieren ist grad der schnellste Weg den ich gefunden hab. Alternativ ginge noch temporär Passwortauthentifizierung für root im SSH Daemon zu erlauben, ssh Key von außen kopieren, und dann Passwordauth für root wieder deaktivieren.


    Hab das SCP schon lang und breit durchsucht, obs irgendwo eine "SSH Public Key auf die VM kopieren" Funktion gibt, aber ich hab nichts gefunden. Auch während der Installation des Debian Image lässt sich da nix auswählen. Bin ich der erste der sowas gern hätte oder einfach nur blind?

    Hallo Forum,
    ich möchte meine Git Repositories aus verschiedenen Gründen selbst hosten. Da ich Bitbucket auch beruflich täglich nutze, bietet sich Bitbucket Server an. In der Variante bis 10 User kostet die Sache nur einmalig 10€.
    Ich frage mich nur, wie ich die Ressourcen auslegen soll. Atlassian empfiehlt 2 Cores und 2GB RAM. Das ist allerdings eine sehr grobe Angabe. 2 Cores kann ja viel bedeuten. Es wird kaum Traffic geben. Ist rein für die gelegentliche private Nutzung.


    Hat jemand Bitbucket Server auf einem Netcup Server im Einsatz? Mit welchem Server?

    Habs soeben mit einer statischen Konfiguration für eth0 versucht - ändert nichts (außer dass dann IPv6 auch weg ist, weil ich die in der statischen Config der Einfachheit halber nicht berücksichtigt hab).
    Da wir schon zu zweit sind, hats wohl wirklich was mit dem Host System oder Netzwerkseitig etwas bei Netcup. Um die Uhrzeit nach Netcup Support suchen, da sehn wir eher alt aus mit unseren kleinen vServern nehm ich an?


    EDIT: Die Netzwerktreiber (virtio, e1000, rtl8139) hab ich alle erfolglos durchprobiert, um das auszuschließen.

    Ganz klassisch und seit Anfang an unverändert:


    Code
    1. auto lo
    2. iface lo inet loopback
    3. allow-hotplug eth0
    4. iface eht0 inet dhcp


    Im iptables Log tut sich auch nix seit dem Reboot. Normalerweise hab ich da mehrmals pro Minute diverse Drops im Log. Seit dem Reboot vorhin nichts mehr.