Posts by sensorback

    Ein kleiner Bump und noch eine Vervollständigung der Infos:


    • Der Server ist bis 25.10.2020 bezahlt - natürlich verlange ich nichts für die bereits bezahlten Monate, die sind geschenkt.
    • Der Inhaberwechsel kostet nichts.
    • Am 25.10.2020 werden dann die nächsten 6 Monate von netcup verrechnet.
    • Die Mindestvertragslaufzeit sind 12 Monate, also bis 25.04.2020.
    • Die zusätzliche IPv4 die am Server dran hängt, ist vollständig bis 22.02.2021 bezahlt, sie verursacht also keine Mehrkosten und kann mit 22.02.2021 gekündigt werden wenn man sie nicht benötigt.
    • Die zwei Monate Unterschied zwischen Server und IPv4 ergeben sich, weil sie zusammen mit einem RS2000 SSDx4 beauftragt wurde, den Server hab ich dann am 25.04.2020 auf einen RS 4000 SSDx4 upgegraded, wodurch sich dessen Mindestvertragslaufzeit erneuert hat.
    • Der Server ist bereits leer und abgeschaltet. Er kann also sofort übertragen werden.

    Bei Interesse einfach eine PN schicken oder hier melden.

    Ich hab einen RS 4000 SSDx4 G8SE mit 6 CPU Kernen, 32GB RAM, 560GB SSD und mit zusätzlicher IPv4 (die zwar dem Server zugeteilt ist, dann aber nicht genutzt wurde) abzugeben. Die damalige Produktseite des Servers: https://www.netcup.de/bestellen/produkt.php?produkt=2473


    Der Server wurde am 25.04.2020 erstellt und die ersten 6 Monate bezahlt, nächste Abrechnung ist am 25.10.2020.


    Inhaberwechsel erfolgt über die im CCP integrierte Funktion kostenlos.


    Bei Interesse am besten mir eine PN schicken.

    sensorback Sorry, aber das ist Bullshit. Wenn Microsoft Mails annimmt und danach in einem schwarzen Loch versenkt, hat das rein gar nichts mit den Fähigkeiten eines Serveradministrators zu tun. Ich gebe ja auch nicht einem User die Schuld, wenn seine eingegebenen Daten intern aufgrund eines Fehlers in /dev/null landen. Wenn Microsoft das nicht nachvollziehen kann, müssen sie sehr seltsame Systeme haben, über die sie jegliche Kontrolle verloren haben.

    Bei aufgeschalteten Domains sind mir persönlich auch keine Probleme bekannt. Ich habe das damals glaube ich einfach über eine PCRE-Transport-Map gelöst, damit alle in Frage kommenden TLDs abgedeckt sind.

    Wart's ab, die sind erfahrungsgemäß alle nicht anders. Nur bei wirklich deutschen Freemailern hatte ich das Problem mit dem Blackholing noch nicht.

    Ich muss schon zugeben, dass mein Post etwas wüst rüberkommt, ich wollt damit niemandem auf den Schlips treten, ist aber wohl passiert. Da wurde vermutlich ein wunder Punkt bei mir getroffen. Ich hab beruflich einfach zu oft erlebt, dass Kunden und selbsternannte Admingurus das Thema Mailversand auf die leichte Schulter nehmen, einen Topplatz auf Blacklists und auf den hinteren Rängen der Zustellrate gebucht haben, und dann siehst du bei der Analyse einer E-Mail schon mit einem Auge die ersten Dummheiten.

    War ein Reflex und einfach falsch, hier fehlende Maßnahmen zu unterstellen.


    Mit Microsoft hab ich anfangs jedenfalls auch immer gekämpft, zuletzt war das aber kein Thema mehr und hat reibungslos funktioniert. Mein letzter Mailserver ist jetzt allerdings auch schon etwa drei Monate her. Es ist, wenn auch wenig hilfreich für den TO, immerhin auch ein Userseitiges Problem. Selbst whitelisten von Domains oder einer expliziten E-Mail Adresse nutzt nix. Wenn Microsoft nicht will, dann will es nicht, und es gibt auch keine Chance das zu debuggen.

    Alles klar, nieder mit allen Paketfiltern, haut weg alle Firewalls. Ich geh dann mal schaukeln.

    Wenn mans nicht schafft, E-Mails an Microsoft Postfächer zuzustellen, dann sollte man einfach keinen eigenen Mailserver für den Versand verwenden. Weder für private Mails, noch für Business, noch für e-Commerce oder sonst irgendwas. Das Problem mit der Zustellrate ist ein weithin bekanntes, wer das auf die leichte Schulter nimmt, und einfach mal nur annimmt, dass nur Microsoft so heikel ist, der sieht nur einen Bruchteil des Gesamtbilds, und verliert im e-Commerce laufend Geld - sofern das Geschäftsmodell den Empfang von E-Mails benötigt.


    E-Mails aus Webshops und anderen Tools fallen üblicherweise unter "transaktionale E-Mails". Mailjet ist einer der Anbieter für transaktionale E-Mails. Ich selbst hab bessere Erfahrung mit Postmark. Und da würd ich keinesfalls nach Empfänger trennen, sondern die Vorteile eines solchen auf hohe Zustellrate spezialisierte Dienstes für ALLE Empfänger nutzen. Dazu kommt dann auch noch, den Inhalt der E-Mails zu analysieren, zum Beispiel mit Tools wie https://www.mail-tester.com/. Geht man bei E-Mails nicht den ganzen Weg, dann machts leider überhaupt keinen Sinn, auch nur damit anzufangen.

    Wenns nach mir allein ginge, wär Docker gar kein Thema. Das ganze Werk ist im bisherigen Zustand, wo vollvirtualisierte VMs zum Einsatz kommen, allerdings derartig verunstaltet, dass ich den Neuaufbau vor Eingriffen anderer schützen will, indem ichs so einfach wie möglich mach. Da docker-compose im fraglichen Umfeld jeder beherrscht, ist das zurzeit das Mittel der Wahl um zu verhindern, dass es wieder entgleitet. Das Basissetup bis zum `docker-compose up` geschieht schon mit Ansible.

    Auch bezugnehmend auf mein früheres Posting: Mit alias docker=podman ist schon viel gewonnen, vgl. https://youtu.be/YkBk52MGV0Y (Red Hat hat regelmäßig Vorträge rund um das Thema Podman auf diversen Veranstaltungen).

    Die "Kompatibilität" ist mir beim Nachlesen untergekommen, ist schon interessant.

    Meine (beruflichen) Docker Anwendungsfälle halten sich jetzt gerade NOCH in Grenzen. Mein größtes Problem wär zurzeit noch, dass die Setups alle auf docker-compose beruhen. Von Experimenten wie podman-compose möcht ich grundsätzlich Abstand halten. Könnte das aber fürs erste nutzen um damit Podman Container zu starten und von den laufenden Containern Pods zu generieren. Zurzeit ist die Baustelle nämlich noch offen und jedes dieser Pakete wird nochmal zum digitalen Parkplatz planiert und geht erst produktiv wenn ich alles soweit hab, dass ich die Baustelle innerhalb von 10 Minuten automatisiert durchspielen und aufsetzen kann. Mir wird Podman zunehmend sympathisch - wenn auch nicht geeignet für meine Homelab Anwendungsfälle.

    Ähm. Naja ich habe da halt auch einige Dienste, die nur intern erreichbar sind. Und ein VPN. Und einen PiHole. Die wollen ja auch irgendwo DNS Auflösungen machen. Der Resolver ist nur intern erreichbar und hat halt zusätzlich eine lokale Zone namens rz.meinedomain.de... funktioniert ganz gut so, muss ich sagen.

    Zudem mache ich das auch, weil ich Dienste betreibe, die recht viele Auflösungen durchführen - GoAccess wäre da so ein Beispiel... das will ich dem Netcup DNS Server nicht antun. Und natürlich sind Unabhängigkeit und Privatsphäre bei einem eigenen Resolver noch von Vorteil.

    Da hast du dann doch einige Gründe mehr für einen Unbound Container :D


    • Docker ist ein totes Pferd (derzeit allenfalls noch ein Zombie). Gerade, wenn es irgendwann in Richtung Kubernetes gehen soll, unbedingt auf Podman setzen (Sicherheitsaspekte, Nutzerbasis, verfügbarer Support, systemd-Support (work-in-progress), konzeptionelle Ähnlichkeit zu Kubernetes ("Testumgebung für K8S"), ...).

    Über die Jahre hab ich angefangen es zu ignorieren, wenn eine Technologie, Framework oder ähnliches in die Pension geschickt wurde. Docker war was das angeht ja gefühlt eine Totgeburt, gerade da hab ich mich dann doch lange verwehrt es über Bord zu werfen weils genug Anwendungsfälle für Docker und zu wenig Alternativen für die Anwendungsfälle gab. Mir war allerdings nicht klar wie sehr Docker doch schon in den Seilen hängt, und Podman ist ja inzwischen doch schon ein Jahr stabil. Da hab ich Aufholbedarf.


    • [...] Ich empfehle, sowohl die IRC-Kanäle, das Discourse-Forum und insbesondere die GitHub-Bugreports/-Diskussionen zu studieren. Es gibt viele Howtos, aber das Zwischen-den-Zeilen-Lesen und Lernen geschieht via IRC/GitHub.

    Besten Dank, die werd ich durchpflügen. Die Entwicklung von LXD find ich auch sehr ansprechend. Gerade, dass sie den Horizont der Container um Unterstützung für VMs erweitert haben, lässt schon vermuten, dass sich Canonical damit nicht nur ein Hobby zurechtgelegt hat, sondern was brauchbares damit vor hat.


    Speziell zu docker: Wie sichert ihr euer System ab, damit Angriffe nicht auf das Hostsystem durchschlagen?

    Konkret zu dieser Frage hab ich keinen vernünftigen Ratschlag. Unabhängig davon wirst du allerdings eventuell dein blaues Wunder erleben. Docker saut ordentlich in iptables rum. Wenn die Container erstmal auf dem von dir administrierten Server laufen, wirst du nach einem Blick auf die aktiven iptables Regeln das Bedürfnis haben den Server vorsorglich offline zu nehmen ... Man kann Docker das austreiben, muss dann aber selbst dafür sorgen, dass die Container networken können. Das ist mehr als nur ein Gefrickel. Docker hat in der eigenen Doku einen kleinen Abschnitt dazu: https://docs.docker.com/network/iptables/

    Finde ich toll. Ich automatisiere zwar nicht ganz so viel, aber Proxmox bringt ja auch eine eigene API mit... ich ziehe mir dadurch in meinem Unbound Container die Hostnames und Container IDs aus Proxmox und schraub mir damit meine lokale DNS Konfiguration zusammen. Funktioniert ganz gut. :)

    Ich bin kein Fan von split horizon DNS Setups aber man kommt ja wohl doch nicht drum herum wenn geNATtete Container über die öffentliche Domain untereinander kommunizieren können müssen. Da hatte ich auch den Gedanken einen kleinen Unbound Container einzusetzen. Hab den Gedanken dann mit einem "Alter werd nicht schrullig" zu mir selbst verworfen, und hatte Unbound dann direkt am Proxmox Host aufgesetzt. Schön zu lesen, dass mein Gedanke wohl doch nicht so daneben war ^^.

    Hallo Forum,


    nachdem meine Selbsthoster Abstinenz (https://forum.netcup.de/sonsti…-hosted-vs-cloud-dienste/) nicht mal ein Quartal ausgehalten hat, schwirre ich zurzeit um das Thema "Container" herum. Aus technischer Sicht find ich fürs Homelab und meine, großteils privaten und nur ein bisschen kommerziellen, Anwendungszwecke kaum Argumente für mehrere "echte" VMs. Meine Bedürfnisse lassen sich auf jeden Fall mit namespaces und cgroups bedienen.


    Das Interesse nicht am Teller zu sitzen sondern darüber hinauszublicken oder gar von außen am Rand einhändig runterzuhängen ist bei mir generell sehr groß. Bisher war die Angelegenheit "Container" bei mir auf zahlreiche berufliche, und einige private Vorhaben mit Docker beschränkt. Kurz auch Proxmox mit LXC Containern für die privaten Zwecke, bis eben die vorhin besagte Selbsthoster Abstinenz für ein paar Monate durchgeschlagen hat. Durch Jobwechsel kam auch Docker Abstinenz dazu, die jetzt aber auch wieder vorbei ist weil ich auch dort jetzt wieder eine kleine Docker Farm bewirtschaften darf.


    Meine aktuellen, privaten, Anwendungsfälle lassen sich prinzipiell mit Docker abdecken. Es sind Anwendungen, die ich mit bestimmter Software in einem abgeschlossenen System betreiben möchte. Für ein paar Tage hab ich daher überlegt, einfach alles unter das Häubchen "Kubernetes" zu hängen. Das war allerdings eher dem Interesse an K8S geschuldet, und es löst sich damit nicht mein grundlegendes Problem mit Docker: Ich warte ich den Krempel nicht beruflich tagtäglich. Ich hab auch keine Lust, alle paar Tage oder Wochen die Docker Setups nacheinander zu aktualisieren und mir mühsam ein Bild davon zu machen, auf welche verhaltenskreativen Ideen die Maintainer der benutzten Docker Images im aktuellen Realease gekommen sind, um mir beim Update den Tag zu versauen.


    Das Thema Docker und alles was daran hängt hat sich daher für meine privaten Anwendungen mehr oder weniger von Natur aus erledigt - quasi einfach die falsche Technologie.


    Es folgten ein paar Tage Grübelei, ob nicht doch mehrere separate VMs = mehrere Tarife hier bei netcup und der eine oder andere Raspberry Pi im Schrank (seh ich mal ähnlich einer VM) zielführend wären. Das erschien mir zu sinnvoll, technisch zu einfach und zu viel semi-analoger Verwaltungsaufwand. Sorry netcup, aber das CCP ist immer noch die kleine Schwester vom Krümelmonster und wenn ich mir was zu Weihnachten wünschen darf, dann dass ich CCP und SCP über eine REST API oder ein Ansible Modul bedienen kann.


    Also wieder zurück zu Containern. Proxmox auf den Tisch, liegt da ja schon in der Ecke rum. Die Proxmox GUI ist bei mir umsonst, da ich schon bei der ersten Berührung damit angefangen hab, manuelle Klicks durch automatisierte Ansible Tasks zu erledigen. Mittlerweile seh ich nach dem Beenden des Installers nichts mehr davon. Ich kämpfe höchstens damit, einen Weg zu finden, einen Klicki-Bunti-Workflow der GUI auf CLI und Ansibletauglichkeit umzulegen. Daher entstand die Idee, das doch einfach mit Vanilla LXC zu erledigen, ohne Umwege, ganz direkt.


    Und dann ist da ja noch LXD. Aber was ist eigentlich LXD? Es findet sich erstaunlich wenig aktuelles darüber. Abgesehen von den Releases auf der LXD News Page, gibts dazu nur uralte Artikel die "von diesem neuen LXD Dings da" handeln und äußerst skeptisch mutmaßen, ob dieses LXD diesem Docker den Rang ablaufen kann. Dabei sind das für mich zwei paar Schuhe. Trotzdem endet gefühlt fast jeder Artikel über LXD und LXC damit, dass man sich vielleicht doch mal Docker ... und so ...


    Nun bin ich spitz auf LXD. Das was man dazu findet (=die offizielle Doku) und die diversen Scripts dazu von janxb 's ServerUtils (https://github.com/janxb/ServerUtils) lassen mich glauben, dass LXD kein absoluter Schwachsinn ist. Die Reise wird daher wahrscheinlich in diese Richtung gehen.


    Warum also so viel Gelaber und dieser elendslange Monolog den wahrscheinlich schon viele Nerds auf einer verlängerten Toilettensitzung mit dem Alter Ego geführt habeen (daher eigentlich eh ein Dialog)? Mich interessieren eure Anwendungen und Erfahrungen mit Containern. Was treibt ihr damit? Warum Container und nicht vollvirtualisiert? Warum vollvirtualisiert und nicht Container? Warum Docker und nicht *insert-other-container-technology*? Setzt jemand Kubernetes ein obwohls technisch totaler Overkill ist? Was ist mit Proxmox? Schmeißt noch docker-compose, Swarm, OpenStack, RancherOS, Core OS, und was euch sonst noch zum Thema "Container" einfällt, ins Feuer. Ob dieser Thread als einsamer Monolog ohne Antwort, oder als gediegen geführter Flamewar über LXC vs. Docker endet ist mir egal. Mich interessiert, was euch an Containern interessiert, und was ihr damit aus welchen Gründen tut oder nicht tut.

    Mailcow zu warten ist eigentlich ein Kinderspiel, wenn man Backups automatisiert und ab und zu mal das Update-Skript anstößt. Das Problem ist da mehr die Wartung des Systems darunter und das hast du ja dann wieder mit einem VPS für einen Webmailclient ;)

    Die Risiken beim Hosting eines ganzen Mailservers inklusive Webmailclient sind aber doch ganz andere als die beim Hosting eines einfachen Webmailclients, den man nicht mal backuppen muss und bei Ausfall auch kurzfristig durch Alternativen ersetzen kann.

    Was spricht gegen die netcup Angebote? Wenns nur an den Webclients liegt - die kannst du dann ja immer noch zB. auf einem VPS200 mit Software deiner Wahl selbst hosten. Die Wartung eines Webmailclients ist ja ein Kinkerlitzchen wenn hinten dran nicht noch ein vollständiges Mailserversetup hängt.

    Wo genau hast du deine Mails laufen, wenn ich fragen darf? Hier bei Netcup über den Webspace, oder Groupware? Oder nen anderer Anbieter? Bin irgendwie auf der Suche nach einer preisgünstigen Alternative wo ich ohne Probleme ne Hand voll Postfächern mit 30 40 Domains von unterschiedlichen Providern laufen lassen kann. Läuft zur Zeit auf nem VPS 500 hier mit Mailcow. Aber mir fehlt echt die Zeit zum administrieren und pflegen :/

    mailbox.org - preislich sehr OK, aber im Vergleich zu einem VPS500 vermutlich uninteressant, falls du die Mailboxen nicht an einer Hand abzählen kannst. Für meinen Fall gerade noch OK und funktioniert sehr gut.

    Nach einigem hin und her und Experimenten hab ich inzwischen fast alles bei Cloud Diensten untergebracht. Nur ein paar wenige Webspaces laufen auf einem VPS 200. Und ich bin zufrieden mit der Lösung. Ganz ausbleiben wird dieses Hobby sowieso nicht, da im Haushalt diverse Raspberry Pis ihre Dienste verrichten. Online und öffentlich zugänglich ist jetzt aber kaum mehr was zu warten und zu pflegen.


    Übrig bleibt jetzt ein Sonderangebots RS2000 SSDx4, den ich am 27. September bestellt hab und der 12 Monate Mindestlaufzeit hat. Vielleicht findet sich hier ein Abnehmer? Die Leistungen sind gleich zum normalen RS2000, nur sinds 240GB statt 60GB SSD. Die ersten 6 Monate sind bezahlt (etwa 78 Euro), davon sind jetzt noch drei Monate übrig (also etwa 39 Euro). Die Gebühr für den Inhaberwechsel wird von netcup dem neuen Inhaber verrechnet und ist um einiges weniger als die 39 Euro. Wären also drei Monate zu einem geringeren Preis, und dann der normale Preis - aber eben 4-fache SSD Kapazität. Das Sonderangebot gibts inzwischen nicht mehr - zumindest find ichs nicht. Falls jemand Interesse hat, dann am besten per PN bei mir melden. Ist nur ein kleiner kurzer Formalismus. Ich lass die Ressourcen ungern jetzt noch 9 Monate ungenutzt gebunden.

    So wie ich das verstanden habe, gibt es jetzt die Möglichkeit mit den privaten Repos, aber man kann nur 3 Personen dazu einladen, will man unbegrenzt haben, muss man zahlen.

    Genauso ists. Meine Repositories liegen seit gestern bei GitHub, und auch wenns fachlich und technisch nichts zu meckern gibt, schmeckts mir nicht so recht. Ich wünschte ich könnte konkret sagen warum, ich kanns aber nicht. Vielleicht auch nur deswegen, weil die Repositories keine alltägliche Relevanz haben, ich nur selten commite und Git quasi per se mehrfach gebackupped ist. Außerdem ist das Hosting einer GitLab oder Gitea Instanz mit Docker so wartungsfrei wie ein Badezimmerteppich. Ich bin daher noch am überlegen und probieren, obs bei GitHub bleibt oder doch ne selbst gehostete GitLab Instanz wird, mit der ich dann auch gleich die statischen Websites mittels GitLab Pages ausliefern kann.

    Da liegt das Problem eher daran, dass man Mails nicht in einem Script verschickt, das den Request des Users handelt, sondern in eine DB oder File Queue legt und dann per Cronjob die Mails verschickt. Aber genau das ists ja: Wenn mans selbst hostet, versucht mans erst mal dort zu lösen und investiert Zeit, und das ist ein Hamsterrad in das man immer wieder reinspringt.


    mailbox.org für die E-Mails steht jetzt erst mal, muss nur noch die Mailboxen umsiedeln bzw die beteiligten informieren.


    GitHub und das ich drauf gekommen bin, dass private Repos jetzt kostenlos sind, warn der Stein des Anstoßes weil ich damit die statischen Pages hosten wollte. Da dort nur eine custom domain pro Page möglich ist, sind sie aber wieder rausgefallen. Da gitlab.com so ekelhaft langsam ist, hab ich GitHub jetzt noch ne Chance gegeben, um mir zumindest eine eigene Git(Lab/ea) Instanz zu sparen, die statischen Pages kann ich immer noch anders lösen. Also GitHub geöffnet, neues Repo, Import starten ... da steht seit ner dreiviertel Stunde "Detecting your project’s version control system…". Auth Daten hab ich bereits eingegeben. Das ist ja n guter Start mit GitHub :wacko:

    Ringelnatz Genau dahin wandern die E-Mails jetzt. Hatte ich die ganze Zeit schon am Schirm und vorhin dafür entschieden. Allerdings ohne Kalender und Kontakte, das läuft dort wieder nur über DAV.

    Mit den Backups gehts mir ähnlich wie dir. Mit restic als Tool und Backblaze als Target hab ich aber eine relativ einfache Kombination, mit der ich Backups nach wie vor selbst machen kann, und sichere mich damit gegen Anbieter-Oopsies ab. Auch git Repositories lassen sich per Scriptbeinfach klonen und backuppen.


    Monitoring ist auch so eine Sache, die man gefühlt nie ausführlich genug machen kann. So wie du es beschreibst, das triffts ja sehr gut. Und dann geht das ganze insgesamt in eine Richtung, wo man einfach die Zeit nicht mehr aufwenden will und vielleicht sogar schludrig arbeitet.