Posts by michaeleifel

    Habe ich mal angefragt.
    War "kostenfrei" die Domains wurden aber nur als Zusatzdomains geführt und konnten nicht in das Inklusivvolumen des neuen Webhostings übertragen werden.

    War aber auch im Zusammenhang mit der Kündigung eines Webhostings.
    Hat sich am Ende alles nicht gelohnt - bei dem Preis lohnt sich nicht mal die Überlegung und so hab eich weiterhin mein Expert Special 2018für. 2,44 EUR / Monat mit 15. Inkl. Domains :D
    Auch wenn davon nurnoch 8 existieren.

    Du könntest die Domains für ein Jahr woanders registrieren und dann zurückhole, dann laufen sie als "neue" domains und können als Inkl. Domains verbucht werden - aber der Aufwand erscheint mir zu groß für 5 EUR / Jahr.

    Danke für die Info. Das wäre in der Tat zuviel des guten. Dann eher die Domainliste mal was schrumpfen ;)

    Ach, der Aufwand lohnt sich schon, wenn man nebenbei noch einen Lockvogelanbieter ein wenig ärgern kann.

    Der mit dem 25 Jahre Angebot?

    Hat jemand schon mal Inklusiv Domains zwischen 2 Webhostings verschoben? Ich finde nur die Information, dass die Wechselgebühr bis zu dem jährlichen Betrag hoch sein kann. Bin nämlich am überlegen auf ein kleineres Webhosting zu wechseln, wenn ich aber dafür die jährliche Gebühr der Domains zahlen muss, rechnet es sich nicht.

    michaeleifel je nach dem wie/was/wo du genau testen willst.

    Aber vielleicht wäre ansible-molecule in Kombination mit einen docker host (oder gitlab runner) eine Option?
    So teste ich meine Roles/Playbooks.


    Falls nicht schreib mal was du genau tust, rein aus Interesse.

    Danke für den Ping. Ich habe verschiedenste Ansible Playbooks die zum provisionieren der Hosts dienen. Das fängt bei Paketinstallation an, über Konfiguration von Sysctl, HAProxy, Unbound etc. Dabei gebe ich mir Mühe, dass diese auch bei verschiedenen Providern ohne Probleme klappen. Infrastructure as Code ohne Terraform


    Mittlerweile habe ich meine Tests wie folgt aufgesplittet:

    - Ubuntu 20.04 / 22.04

    - Debian 10 /11

    - der erste Test erfolgt mit den rollen eigenen Defaults, beim anderen werden meine Git versionierten Ansible Variablen ausgecheckt und das Playbook damit losgeschickt.


    Molecule Docker hatte ich bereits im Einsatz, allerdings gibt's da Ärger mit SystemD in Verbindung mit Cgroups.und nur das Setzen von systemd.unified_cgroup_hierarchy=0 in Grub brachte Abhilfe. Dies hatte ich auf einem separaten Host gemacht, dessen günstige Konditionen aber ausgelaufen sind. Die Gegenrechnung mit dynamisch provisionierten Hosts und kein Ärger mit dem SystemD hat mich dazu gebracht, wieder normale VMs zu provisionieren.


    Schlussendlich habe ich dann noch ein Projekt, welches alle Provisionierungsrollen kombiniert in einer Pipeline und womit ich ausprobiere, ob mit den derzeitgen Rollen und Werten, ich bei Anbieter Y ein funktionsfähiges Kubernetes Cluster deployen könnte, wo ich mit dann mit Ansible und eingecheckten Helm Value + Kuberneres Manifesten dann den Anwendungsteil baue. Backups liegen bei einem anderen Anbieter.


    Der Gitlab CI Code sieht leicht verfremdet wie folgt aus ( vermittelt aber die Idee ) Das genutzte Image ist selbst gebaut und enthält diverse Molecule Treiber ( A.S,DigitalerSee,Hotzner,Valtr und ein Delegated für Netcup )


    Ja, sauberer ist es sicher über die Config-Datei

    Ich hatte diesen "Quick Hack" damals auch im Netz gefunden, ihn schnell mal ausprobiert und da es klappte, nie wieder nach alternativen Lösungen gesucht. (Aus den Augen aus dem Sinn ;)) Ich werde das beim nächsten Mal dann auch mal über /etc/resolvconf/resolv.conf.d/head oder /etc/systemd/resolved.conf versuchen.

    Das macht vermutlich Sinn, sofern man nicht einen lokalen DNS Server hat. Bisher habe ich immer systemd-resolved deaktiviert, da ich Unbound habe und der ja auch Anfragen cacht. Sonst hätte ich direkt 2 DNS Caches ;)

    Happy Birthday!


    Hab damals ne Umgebung gebraucht auf der ich verschiedene Software + Konfigurationen testen kann. Danach sind dann noch verschiedene Dienste dazu gekommen und das Cluster ist gewachsen. Zum Glück kam damals das Cloud VLAN noch rechtzeitig, war mich schon am umschauen bei der Konkurrenz.

    Was mich interessiert: habt ihr eine eigene Konfiguration für den Unbound? Oder installiert ihr einfach per Default?

    Eigene Konfiguration die von Ansible templated wird. So kann ich dynamisch die ACL, auf welche Adressen (IPv4 / IPv6) der Unbound lauscht, spezielle Forwards / Reverse Verweise, Anzahl der Threads etc. konfigurieren.

    Danke für die Rückmeldungen ThomasChr  AutoYaST


    Ich habe dem Support anschließend nochmals per Verlinkung auf Wiki + XML Inhalt.+ Curl Response geschickt um das Argument der eigenen Srkipte zu entkräften, leider bisher ohne weitere Antwort / Hilfe.

    Auf den 2. Teil meines Tickets mit dem Hinweis auf den UI Bug ist man gar nicht eingegangen, schade ;(


    Ist das eigentlich von meiner RS SLA abgedeckt? :P

    netcup.de - Produktdetails
    Webhosting, Server, Domains, Managementdienste, einfach alles fuer einen erfolgreichen Internetauftritt
    www.netcup.de


    "Die Failover-IP ist auch per Webservice konfigurierbar" -> Gibt's sowas wie Mietminderung? :?:

    Das hier klappte bei mir bislang immer:

    Code
    curl -H "Content-Type: text/xml; charset=utf-8" -H "SOAPAction:"  -d "<soapenv:Envelope xmlns:soapenv=\"http://schemas.xmlsoap.org/soap/envelope/\" xmlns:tns=\"http://enduser.service.web.vcp.netcup.de/\"><soapenv:Header/><soapenv:Body><tns:changeIPRouting><loginName>123</loginName><password>456</password><routedIP>37.120..</routedIP><routedMask>32</routedMask><destinationVserverName>v220161</destinationVserverName><destinationInterfaceMAC>36:0b:84::</destinationInterfaceMAC></tns:changeIPRouting></soapenv:Body>" -X POST https://www.servercontrolpanel.de/WSEndUser

    Klappt das aktuell noch bei dir? Ich habe aktuell Probleme https://forum.netcup.de/inform…onsf%C3%A4hig/#post181527 und auch mit deinem Aufruf krieg ich nur:


    <S:Fault xmlns:ns4="http://www.w3.org/2003/05/soap-envelope"><faultcode>S:Server</faultcode><faultstring>generall error</faultstring></S:Fault>

    zurück.

    Ist eigentlich nur bei mir der IP Failover aktuell verbuggt?

    SCP:

    pasted-from-clipboard.png

    und alle meine Skripte melden StatusCode 500 sowie:

    <?xml version='1.0' encoding='UTF-8'?><S:Envelope xmlns:S="http://schemas.xmlsoap.org/soap/envelope/"><S:Body><S:Fault xmlns:ns4="http://www.w3.org/2003/05/soap-envelope"><faultcode>S:Server</faultcode><faultstring>generall error</faultstring></S:Fault></S:Body></S:Envelope>



    beim Versuch per Curl die IP zu schieben ;(

    Copy-Paste aus Ansible: ( unattended, fail2ban, postix haben ihre separaten Rollen und werden nicht nur "installiert", sondern auch "konfiguriert" )


    Unbound auf der PfSense hat mehrere Vorteile:

    1. Du hast eine GUI und bessere Beschreibungstexte.

    2. Du kommst nicht in eine Schräglage durch abweichende DNS Antworten. Das kann dir zum Beispiel passieren, wenn ein CDN oder Cloudanbieter für 2 IPs unterschiedliche GEO daten hat und nicht auf die gleiche Region matcht. Das ist mir tatsächlich schon mehrfach passiert und das will man einfach nicht haben.

    3. Am Caching und asynchronen Nachladen ändert sich ja nichts. Deinem Cluster ist es ja egal wo er den DNS Eintrag herbekommt. Zumal viele Cluster selbst interne DNS Server betreiben.

    4. Resolver pro Server verursachen unnötigen Traffic und Last. Das macht man nicht und die Dienstanbieter bitten auch deutlich darum, das nicht zu tun. Dann lieber einen Public DNS Eintragen und Forwarden.

    1.) Lasse ich mal so stehen, bei mir trifft der Punkt aufgrund Automatisierung nicht zu

    2.) Das ist aber nur solange valide bis die TTL vom Eintrag abgelaufen ist und in dem Zeitraum mehrere Server die gleiche Abfrage machen. Ansonsten kann dir das doch auch weiterhin passieren? Als Beispiel

    lbxxxxx.cloudapp.azure.com haben immer TTL von nur 10 Sekunden...

    4.) Die Logik erschließt sich mir nicht so ganz. Aktuell beantwortet der Unbound alle DNS Anfragen vom Host. Fragen 10 Container die gleiche Abfrage und die DNS TTL ist nicht abgelaufen, werden die vom Cache beantwortet. Würde ich jetzt den 8.8. eintragen, würden 10 Anfragen Richtung g00gle gehen. Aktuell sind im Cache ~2000 Antworten vorgehalten.

    Hallo zusammen,

    ein kurzes Update: es gibt hierzu zwar ein geplantes Vorhaben, aber leider noch kein konkretes Datum für die Umsetzung.

    Schön zu hören ;) Ich lasse mich überraschen


    Wenn man mehrere Server bei Netcup hat lohnt es sich vielleicht einen weiteren als Firewall (z.B. Pfsense, OpnSense) und Service Provider einzusetzen.

    Ich nutze die Firewall einen DNS Resolver zu betreiben und um einen zentralen Zeitserver zu haben.

    Das hat den Charme, dass ich manche DNS Einträge gezielt von Dritten auflösen lassen kann, um zum Beispiel auch "Private DNS" von Cloudanbietern bequem nutzen zu können. Die Einträge kurz zu flushen ist natürlich auch kein Problem...


    Wenn man keine Firewall benötigt, dann ist das natürlich ein wenig über das Ziel hinaus...

    Da sehe ich aktuell keinen Vorteil zu Unbound als DNS Resolver auf allen Kisten der im Zweifel auch noch gecachte bereits abgelaufene Antworten liefern kann. Irgendwo her muss die Firewall Kiste dann ja auch wieder die Einträge bekommen und eigentlich 2 davon wegen SPOF. Klar kann ich CF, G00gle und Co. in meine resolv.conf eintragen, aber eigentlich will ich dass mein Cluster bei Verlust der externen Konnektivität nicht direkt Amok rennt ( Erfahrungen aus dem Berufsleben )-

    Sehe ich das richtig dass ich auch beim RS lieber von SCSI auf VirtIO stellen sollte ?

    Ich warte irgendwie noch auf ne richtige Stellungnahme seitens Netcup. Vor allem würde mich nicht nur die kurzfristige, sondern auch langfristige Folgen / Nachteile interessieren. Beim roten H ist es übrigens Virtio SCSI.

    Dauert das eigentlich immer noch so lange? Ich hatte das vor Jahren mal so gemacht. Aber die Failover IP Adresse zu wechseln dauerte immer mindestens >30 Sekunden. Da habe ich den Host schneller rebootet als dass die Failover IP endlich auf den neuen Server geroutet war. Ich hatte am Ende mit Failover IP mehr Downtime als ohne, weswegen ich das komplett habe sein lassen. Aber kann ja gut sein, dass es sich mittlerweile gebessert hat. Aber damals hatte mich das schon ziemlich genervt.

    Gefühlt würde ich sagen dass es 15 Sekunden sind, kann es aber nicht genau sagen weil es automatisiert durch Keepalived etc. passiert und kein aktiver Vorgang meinerseits ist.