Beiträge von michaeleifel

    Hängt von ab, wie dein System konfiguriert ist ( DNS, Netzwerk, Hostname ). Hört sich erstmal so an, als ob du das Netcup Image nutzt.

    Keine Ursache. Das mit den Nachbarn ist halt so ne Sache. Tatsächlich habe ich 1mal vorsorglich eine Maschine über den Support auf einen anderen Host migrieren lassen, da ich I/O Latency auf der SSD im Monitoring gesehen habe und zwar in sehr regelmäßigen Abständen. Die Migration G8 -> G9 waren bei mir folgende Gründe, die bei dir aber so nicht zutreffen ( HA Cluster vs Single Host )


    1.) 6 -> 8 Kerne, gleiche CPU wie vorher bei 4 Hosts, gleiche Ausfalltoleranz

    2.) 1Gbit -> 2,5Gbit im CloudVLAN, da ich replizierten Storage habe

    3.) 4 * 20,99€ -> 3 * 25,64


    Bei Wordpress ist bei mir der Engpass immer die Datenbank gewesen aufgrund von komplexen Abfragen. Durch den Einsatz von Caching-Plugins und regelmäßige Optimierung der Datenbank auf der Schatteninstanz konnte ich viel gewinnen.

    Ich habe damals ( November / Dezember ) selber von 4x RS 4000 SSDx4 G8SE auf 3x RS 4000 G9 SE gewechselt und hatte Geekbenchs und verschiedene Tests gemacht. Hauptgrund war bei mir die Umstellung auf weniger Nodes, aber weiterhin gleiche CPU Power. Dazu hatte ich die Nodes jeweils grundinstalliert mit meinem Setup und anschließend geteset:


    https://browser.geekbench.com/v5/cpu/11262471
    https://browser.geekbench.com/v5/cpu/11391605


    Subjektiv hatte das damals auch meinem Gefühl entsprochen. Auf der G8 lief das Ansible Setup in 11 Minuten durch, auf der G9 waren es 8 Minuten.

    Ich würde versuchen den Fehler strategisch und systematisch einzugrenzen. Sind denn sowohl Ping als auch Webseite down? Ist ein Node Reboot erkennbar? Sind Backups / Automatische Reboots aktiv, etc.... Heißt regelmäßig alle paar Tage, jede Nacht? SCP Log könnte man ja auch prüfen, ob dort was erkennbar ist. Was sagen die Logs der Maschine zu der Zeit? Antwortet SSH zu der Zeit?


    Wenn der Fehler halt nur auf dem Server auftritt, würde ich halt vergleichen was auf dem so anders ist. Ich rolle alle meine Server und Konfigurationen mit Ansible aus, insofern würde ein solcher Bug bei mir wenn auf allen Nodes auftreten, da diese die gleiche Konfig haben. Wäre der Bug in nem Docker Container würde der Fehler mitwandern, wenn ich den verschiebe.

    Habe ich mal angefragt.
    War "kostenfrei" die Domains wurden aber nur als Zusatzdomains geführt und konnten nicht in das Inklusivvolumen des neuen Webhostings übertragen werden.

    War aber auch im Zusammenhang mit der Kündigung eines Webhostings.
    Hat sich am Ende alles nicht gelohnt - bei dem Preis lohnt sich nicht mal die Überlegung und so hab eich weiterhin mein Expert Special 2018für. 2,44 EUR / Monat mit 15. Inkl. Domains :D
    Auch wenn davon nurnoch 8 existieren.

    Du könntest die Domains für ein Jahr woanders registrieren und dann zurückhole, dann laufen sie als "neue" domains und können als Inkl. Domains verbucht werden - aber der Aufwand erscheint mir zu groß für 5 EUR / Jahr.

    Danke für die Info. Das wäre in der Tat zuviel des guten. Dann eher die Domainliste mal was schrumpfen ;)

    Ach, der Aufwand lohnt sich schon, wenn man nebenbei noch einen Lockvogelanbieter ein wenig ärgern kann.

    Der mit dem 25 Jahre Angebot?

    Hat jemand schon mal Inklusiv Domains zwischen 2 Webhostings verschoben? Ich finde nur die Information, dass die Wechselgebühr bis zu dem jährlichen Betrag hoch sein kann. Bin nämlich am überlegen auf ein kleineres Webhosting zu wechseln, wenn ich aber dafür die jährliche Gebühr der Domains zahlen muss, rechnet es sich nicht.

    michaeleifel je nach dem wie/was/wo du genau testen willst.

    Aber vielleicht wäre ansible-molecule in Kombination mit einen docker host (oder gitlab runner) eine Option?
    So teste ich meine Roles/Playbooks.


    Falls nicht schreib mal was du genau tust, rein aus Interesse.

    Danke für den Ping. Ich habe verschiedenste Ansible Playbooks die zum provisionieren der Hosts dienen. Das fängt bei Paketinstallation an, über Konfiguration von Sysctl, HAProxy, Unbound etc. Dabei gebe ich mir Mühe, dass diese auch bei verschiedenen Providern ohne Probleme klappen. Infrastructure as Code ohne Terraform


    Mittlerweile habe ich meine Tests wie folgt aufgesplittet:

    - Ubuntu 20.04 / 22.04

    - Debian 10 /11

    - der erste Test erfolgt mit den rollen eigenen Defaults, beim anderen werden meine Git versionierten Ansible Variablen ausgecheckt und das Playbook damit losgeschickt.


    Molecule Docker hatte ich bereits im Einsatz, allerdings gibt's da Ärger mit SystemD in Verbindung mit Cgroups.und nur das Setzen von systemd.unified_cgroup_hierarchy=0 in Grub brachte Abhilfe. Dies hatte ich auf einem separaten Host gemacht, dessen günstige Konditionen aber ausgelaufen sind. Die Gegenrechnung mit dynamisch provisionierten Hosts und kein Ärger mit dem SystemD hat mich dazu gebracht, wieder normale VMs zu provisionieren.


    Schlussendlich habe ich dann noch ein Projekt, welches alle Provisionierungsrollen kombiniert in einer Pipeline und womit ich ausprobiere, ob mit den derzeitgen Rollen und Werten, ich bei Anbieter Y ein funktionsfähiges Kubernetes Cluster deployen könnte, wo ich mit dann mit Ansible und eingecheckten Helm Value + Kuberneres Manifesten dann den Anwendungsteil baue. Backups liegen bei einem anderen Anbieter.


    Der Gitlab CI Code sieht leicht verfremdet wie folgt aus ( vermittelt aber die Idee ) Das genutzte Image ist selbst gebaut und enthält diverse Molecule Treiber ( A.S,DigitalerSee,Hotzner,Valtr und ein Delegated für Netcup )


    Ja, sauberer ist es sicher über die Config-Datei

    Ich hatte diesen "Quick Hack" damals auch im Netz gefunden, ihn schnell mal ausprobiert und da es klappte, nie wieder nach alternativen Lösungen gesucht. (Aus den Augen aus dem Sinn ;)) Ich werde das beim nächsten Mal dann auch mal über /etc/resolvconf/resolv.conf.d/head oder /etc/systemd/resolved.conf versuchen.

    Das macht vermutlich Sinn, sofern man nicht einen lokalen DNS Server hat. Bisher habe ich immer systemd-resolved deaktiviert, da ich Unbound habe und der ja auch Anfragen cacht. Sonst hätte ich direkt 2 DNS Caches ;)

    Was mich interessiert: habt ihr eine eigene Konfiguration für den Unbound? Oder installiert ihr einfach per Default?

    Eigene Konfiguration die von Ansible templated wird. So kann ich dynamisch die ACL, auf welche Adressen (IPv4 / IPv6) der Unbound lauscht, spezielle Forwards / Reverse Verweise, Anzahl der Threads etc. konfigurieren.

    Danke für die Rückmeldungen ThomasChr  AutoYaST


    Ich habe dem Support anschließend nochmals per Verlinkung auf Wiki + XML Inhalt.+ Curl Response geschickt um das Argument der eigenen Srkipte zu entkräften, leider bisher ohne weitere Antwort / Hilfe.

    Auf den 2. Teil meines Tickets mit dem Hinweis auf den UI Bug ist man gar nicht eingegangen, schade ;(


    Ist das eigentlich von meiner RS SLA abgedeckt? :P

    netcup.de - Produktdetails
    Webhosting, Server, Domains, Managementdienste, einfach alles fuer einen erfolgreichen Internetauftritt
    www.netcup.de


    "Die Failover-IP ist auch per Webservice konfigurierbar" -> Gibt's sowas wie Mietminderung? :?:

    Das hier klappte bei mir bislang immer:

    Code
    curl -H "Content-Type: text/xml; charset=utf-8" -H "SOAPAction:"  -d "<soapenv:Envelope xmlns:soapenv=\"http://schemas.xmlsoap.org/soap/envelope/\" xmlns:tns=\"http://enduser.service.web.vcp.netcup.de/\"><soapenv:Header/><soapenv:Body><tns:changeIPRouting><loginName>123</loginName><password>456</password><routedIP>37.120..</routedIP><routedMask>32</routedMask><destinationVserverName>v220161</destinationVserverName><destinationInterfaceMAC>36:0b:84::</destinationInterfaceMAC></tns:changeIPRouting></soapenv:Body>" -X POST https://www.servercontrolpanel.de/WSEndUser

    Klappt das aktuell noch bei dir? Ich habe aktuell Probleme https://forum.netcup.de/inform…onsf%C3%A4hig/#post181527 und auch mit deinem Aufruf krieg ich nur:


    <S:Fault xmlns:ns4="http://www.w3.org/2003/05/soap-envelope"><faultcode>S:Server</faultcode><faultstring>generall error</faultstring></S:Fault>

    zurück.

    Ist eigentlich nur bei mir der IP Failover aktuell verbuggt?

    SCP:

    pasted-from-clipboard.png

    und alle meine Skripte melden StatusCode 500 sowie:

    <?xml version='1.0' encoding='UTF-8'?><S:Envelope xmlns:S="http://schemas.xmlsoap.org/soap/envelope/"><S:Body><S:Fault xmlns:ns4="http://www.w3.org/2003/05/soap-envelope"><faultcode>S:Server</faultcode><faultstring>generall error</faultstring></S:Fault></S:Body></S:Envelope>



    beim Versuch per Curl die IP zu schieben ;(

    Copy-Paste aus Ansible: ( unattended, fail2ban, postix haben ihre separaten Rollen und werden nicht nur "installiert", sondern auch "konfiguriert" )


    Unbound auf der PfSense hat mehrere Vorteile:

    1. Du hast eine GUI und bessere Beschreibungstexte.

    2. Du kommst nicht in eine Schräglage durch abweichende DNS Antworten. Das kann dir zum Beispiel passieren, wenn ein CDN oder Cloudanbieter für 2 IPs unterschiedliche GEO daten hat und nicht auf die gleiche Region matcht. Das ist mir tatsächlich schon mehrfach passiert und das will man einfach nicht haben.

    3. Am Caching und asynchronen Nachladen ändert sich ja nichts. Deinem Cluster ist es ja egal wo er den DNS Eintrag herbekommt. Zumal viele Cluster selbst interne DNS Server betreiben.

    4. Resolver pro Server verursachen unnötigen Traffic und Last. Das macht man nicht und die Dienstanbieter bitten auch deutlich darum, das nicht zu tun. Dann lieber einen Public DNS Eintragen und Forwarden.

    1.) Lasse ich mal so stehen, bei mir trifft der Punkt aufgrund Automatisierung nicht zu

    2.) Das ist aber nur solange valide bis die TTL vom Eintrag abgelaufen ist und in dem Zeitraum mehrere Server die gleiche Abfrage machen. Ansonsten kann dir das doch auch weiterhin passieren? Als Beispiel

    lbxxxxx.cloudapp.azure.com haben immer TTL von nur 10 Sekunden...

    4.) Die Logik erschließt sich mir nicht so ganz. Aktuell beantwortet der Unbound alle DNS Anfragen vom Host. Fragen 10 Container die gleiche Abfrage und die DNS TTL ist nicht abgelaufen, werden die vom Cache beantwortet. Würde ich jetzt den 8.8. eintragen, würden 10 Anfragen Richtung g00gle gehen. Aktuell sind im Cache ~2000 Antworten vorgehalten.

    Hallo zusammen,

    ein kurzes Update: es gibt hierzu zwar ein geplantes Vorhaben, aber leider noch kein konkretes Datum für die Umsetzung.

    Schön zu hören ;) Ich lasse mich überraschen


    Wenn man mehrere Server bei Netcup hat lohnt es sich vielleicht einen weiteren als Firewall (z.B. Pfsense, OpnSense) und Service Provider einzusetzen.

    Ich nutze die Firewall einen DNS Resolver zu betreiben und um einen zentralen Zeitserver zu haben.

    Das hat den Charme, dass ich manche DNS Einträge gezielt von Dritten auflösen lassen kann, um zum Beispiel auch "Private DNS" von Cloudanbietern bequem nutzen zu können. Die Einträge kurz zu flushen ist natürlich auch kein Problem...


    Wenn man keine Firewall benötigt, dann ist das natürlich ein wenig über das Ziel hinaus...

    Da sehe ich aktuell keinen Vorteil zu Unbound als DNS Resolver auf allen Kisten der im Zweifel auch noch gecachte bereits abgelaufene Antworten liefern kann. Irgendwo her muss die Firewall Kiste dann ja auch wieder die Einträge bekommen und eigentlich 2 davon wegen SPOF. Klar kann ich CF, G00gle und Co. in meine resolv.conf eintragen, aber eigentlich will ich dass mein Cluster bei Verlust der externen Konnektivität nicht direkt Amok rennt ( Erfahrungen aus dem Berufsleben )-