Beiträge von michaeleifel

    Ich glaube es würde helfen weitere Details zu kennen, vorher ist es Rätselraten:


    - Läuft Windows auf der kIste?

    - IP statisch konfiguriert?

    - IPv6 konfiguriert?

    - Was sagt das Monitoring zu dieser Zeit (falls vorhanden)

    - Sind es nur pings oder welche Ressourcen sind nicht ansprechbar?

    - Was für ne Maschine ist es (vps 200 g8?)

    - Trtt das Problem nur bei Verbindung zu bestimmten Providern auf?

    - Was läuft alles auf der Kiste?

    - Welcher Netzwerktreiber ist im SCP eingestellt?

    - Wurden Updates auf dem System eingespielt welche evtl. dieses Problem verursachen?

    - Tritt das Problem nur auf 1 Server auf?

    Kurze Frage: Hast du die Generationen gewechselt? Ansonsten bietet sich doch ein Sidegrade an. Das dauert eigentlich max ~5 Min ( habs schon mehrmals gemacht). Die Gefahr bei Umzug innerhalb der Generationen ist halt bspw dass Interface Namen sich ändern, die Platte vda statt sda heißt etc. was dann auch Supportaufwand erzeugt.


    Mir ist bisher auch kein Provider in der Preisregion bekannt der solche Aktionen unterstützt, wen nur als aufpreispflichtiger Service der pro Stunde dann abgerechnet wird. Die Beträge da sind dann natürlich vielfaches von den monatlichen Kosten. (45€ für ein Debian installer iso mounten bspw!). Hatte da schon im geschäftlichen Umfeld "viel Spaß".


    Zum glück kann man bei Netcup ISO mounten, per preseed + ansible hab ich neue Server in ~7 min fertig und kann dann den Datenrestore per restic / rclone anschmeißen.

    Hallo Rudi,

    nicht verzweifeln. Ich habe hier eine Wordpress Anleitung gefunden bei youtube:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Von den Schritten her könnte dir das auf die Sprünge helfen. Dass du momentan die WCP Seite siehst, könnte dran liegen dass entweder bspw. der DNS noch nicht auf das richtige Ziel zeigt oder im Webhosting Backend dann noch nicht der Pfad auf die Joomla Installation zeigt.


    Gruß

    Wie hast du den Wechsel durchgeführt? Die RKE-Doku sagt, dass der Network Provider nicht verändert werden kann und in der Flannel-Doku steht auch, dass man das Backend nicht im Betrieb ändern soll.

    Hab das beim "rke up" gesetzt. Die Doku schreibt den Satz halt rein weil es halt zu einer Unterbrechung kommt wenn bspw von Calico -> Flannel gehst etc oder auch beim Backendtype. Sofern man sich aber etwas "auskennt", lässt sich das nachts in einer geplanten Aktion einfach durchziehen. In der RKE config sieht das bei mir wie folgt dann aus (eth1 ist das cloud vlan, hab net.ifnames=0 in der grub und deswegen die alten Interface Namen.):



    Code
    network:
      plugin: canal
      options:
        canal_iface: eth1
        canal_flannel_backend_type: host-gw

    Der relevante Eintrag stammt aus der Flannel Doku ( https://github.com/coreos/flan…Documentation/backends.md)


    Im laufenden Betrieb (falls keine andere Möglichkeit sich ergibt) würde ich erst alle Deployments auf 0 setzen so dass nur der Kubernetes Core läuft (api, coredns, nodelocaldns), warten bis Ceph / Longhorn alles synced hat und dann die Änderung vornehmen. Weave hat anscheinend aktuell nen kleinen Bug der sich durch das bearbeiten des Daemonsets beheben lässt: https://github.com/weaveworks/weave/issues/3816


    Gruß

    michaeleifel Läuft das dann bei dir trotzdem über das Cloud-VLAN? Ich hatte auch mal überlegt, per Wireguard über die Public Interfaces zu kommunizieren, aber dann hat man auch wieder eine zusätzliche Fehlerquelle.

    Hab mir extra dafür das (https://www.netcup.de/bestellen/produkt.php?produkt=2298 ) gegönnt da ich noch auf längere Zeit an G8 Server gebunden bin ( hatte kleine Fehlplanung und kurz vor G9 Launch fertig umgebaut...)


    Ich nutze auf allen Systemen ein selbst provisioniertes Debian per preseed bei allen Providern am laufen das danach durch Ansible ergänzt wird. Somit hab ich überall das gleiche System und kann Fehlerquellen schnell eingrenzen. RancherOS hatte ich mal testweise am laufen aber irgendwie komme ich dann doch immer wieder zu Debian zurück, zumal nach der Installation es nur 800 mb an Festplatte nutzt da es minimalistisch gehalten ist. Per Backprots paar aktuelle Pakete wie Kernel.


    Seit dem Wechsel auf Host Gw als Backend hab ich keine Probleme mehr. Wireguard hatte ich auch ne Zeit lang im Einsatz, das hatte allerdings bei nem anderen Provider Startup Zeiten von 30 Sekunden (liegt am eingesetzten Hypervisor des Provider Virt..zo) und deswegen habe ich micht einfachheitshalber für das Cloud VLAN entschieden. Kann mich nicht beschweren, keine wegknallenden Volumes, hier nen kleiner fio test:


    Ich nutze aktuell ein aktuelles Debian ohne dem Cloud vLAN.

    Denkt ihr das Cloud vLAN würde was bringen, aktuell ist es so, dass das Free Cloud vLAN bei 100 Mbit langsamer wäre wie die aktuellen 1GBit die wir sowieso schon haben. Deswegen zögere ich da noch das auszuprobieren.

    Meint ihr Cloud vLAN wäre trotzdem sinnvoll? Wenn es wirklich was bringt kann man sich ja noch immer ein schnelleres (bis 2,5 Gbit) besorgen.

    Ich würde nicht nur die Geschwindigkeit an der Stelle beachten sondern auch wie die Anbindungen sind bzgl Latenz, Routing etc.

    Bspw habe ich bei nem anderen Provider das Problem das wenn ich deren public interface nutze die Kommunikationswege zwischen den Nodes auch nur mit 99% SLA abgedeckt sind. Erst durch deren zusätzliches internes Netzwerk ist sichergestellt dass der kürzeste Weg zwischen den Nodes genommen wird was man auch massiv in der Latenz spürt. Eigentlich würde ich ja erwarten dass wenn das andere Ziel innerhalb vom RZ ist der Traffic nicht 1mal bis Frankfurt und zurück geht, allerdings kenne ich da einen Anbieter wo das tatsächlich der Fall ist, aber da sind auch DNS Resolv Zeiten von 2 Sekunden für die Hotline "normal".


    Zuerst habe ich auch mit dem Free ausprobiert, aber eher halt bezogen auf Latenzen, Stabilität etc. Über das VLAN läuft auch sämtliche Kommunikation meiner Nodes und nach außen auf dem Public sind es dann nur eine handvoll Ports die dort überhaupt "lauschen". Ausprobieren mit dem Free kann ja nicht schaden, nur halt nicht Wunder erwarten bei der Geschwindigkeit.


    Gruß

    Hallo zusammen,

    welches OS verwendet ihr denn? Nutzt ihr nen VLAN für die Kommunikation zwischen den Nodes oder das Public Interface?


    Ich habe RKE (https://github.com/rancher/rke) im Einssatz (was ja bei Rancher zuerst deplyoed wird) mit Canal als CNI und Backend Host-GW ( https://coreos.com/flannel/docs/latest/backends.html ) Mit VxLAN, was der default ist, hatte ich in der Tat auch leichte Probleme.


    Als Storage nutze ich Ceph und das läuft saustabil.

    Gruß

    Vielen Dank für die Kommentare und den Input.


    Ich hatte mir das intern auch schon gedacht. Leider konnte ich den SOA Eintrag nicht modifizeren da dies vom bisherigen Anbieter "aus Sichterheitsgründen" nicht supported wird. Die Einträge selber haben bei mir in der Regel eine TTL von ~30 min ( für Lesestoff: https://blog.apnic.net/2019/11…idiculously-low-dns-ttls/). Als negatives Beispiel führe ich gerne das hier an:


    Code
    paymenthub.****.com. 300 IN     CNAME   ***.cloudapp.net.
    ***.cloudapp.net. 10 IN A XXX.XXX.XXX.XXX

    Das verursacht einen Großteil unnötigen Traffic aus meiner Sicht und wäre mit einem LB eleganter gelöst da die Applikation ständig nur DNS am resolven und lässt sich nicht vernünftig cachen.


    Die Domain löst nach den abgelaufenen 24 Stunden jetzt auch bei Netcup sauber auf. Falls jemand weiß welchen Upstream die nutzen könnte man evtl ja darüber die Sache was "beschleunigen".


    Gruß

    Hallo zusammen,

    ich habe bereits im Forum recherchiert zu dem Thema DNS. Aktuell hab ich eine Domain von Provider 1 zu Provider 2 Nameserver technisch umgezogen. TTL etc. hatte ich auf niedrigen Werten. Alle Internet Resolver liefern auch schon brave die neuen Einträge, allerdings hängen die im Wiki genannten Server ( https://www.netcup-wiki.de/wiki/Nameserver ) aktuell auf "SERVFAIL" fest. <X,was auch kleine Lücken im Monitoring auslöst Da ich prinzipiell natürllich lieber die RZ internen Resolver nutzen wollte, stellte sich mir die Frage ob ich irgendwie "flush" ähnlich wie bei google, opendns etc. machen kann. Im Forum bin ich nur über ( https://forum.netcup.de/netcup…aum-domainumzug/?pageNo=1 ) gestolpert.


    Die Domäne selber ist bei Netcup gekauft und nur die NS Einträge zeigen auf die externen Provider zwecks Vermeidung Single Point of Failures bei einzigem DNS Anbieter. Wäre nice wenn es dort was geben würde..


    Hat jemand evtl. weiteren Input für mich oder hat schon mal die Situation gehabt?


    Gruß,

    Michael

    Ich gehe mal von aus dass die Konfiguration entsprechend auf die internen Interface gelegt ist und nicht rein zufällig doch die public nutzt?


    Hatte zuerst glusters, mittlerweile Ceph und kann mich nicht über Performance beschweren. MTR zeigt avg. 0.4ms zwischen den Nodes bei meinen AdHoc Tests:


    Code
    HOST: srv1               Loss%   Snt   Last   Avg  Best  Wrst StDev
      1.|-- 172.16.0.11       0.0%   100    0.4   0.4   0.3   0.7   0.1

    Hab auch mal in mein altes Ansible Playbook für glusterfs geguckt. Hab dabei immer die Internen IPs und keine Hostnamen etc. verwendet für alle Fälle. Hast du paar Details bereit welches OS, GlusterFS Version etc?

    Did you made a reboot to the server, after you had configured it?

    Have you told this to the support?


    [netcup] Felix P. Because it seems that this is an bigger issue - may we can have a statement of netcup? Are there any other known reasons for this problems?

    Yes, the Server were all completely shut down, also with the SCP Button "Power off" after being configured.

    Funny things is that it seems random if it works currently or not. Like right now 1 of the 6 servers i can reach with IPv6, even though it takes a few seconds before the first ping comes back. And all of them can do ping6 netcup.de, but this does not mean i can also ping them from my home.


    I did not reach out to Support yet for this as i happily don't need to rely on IPv6 only.

    Also experiencing the same issue. Sysctl values are set like written in wiki. Noticed this when i was trying to login to an pure ssh shell and not ansible anymore where it used the IPv4. OS is in all 6 Cases Debian Buster. Static IPv4 and IPv6 NIC Configuration like written in the wiki.

    Den Tick Stack hatte ich vorher auch im Betrieb als ich noch im Versuch war mit 1 zentralen Lösung alles zu erschlagen. Da hatte ich ne ähnliche Konstruktion im Einsatz, allerdings hatte ich am Ende Probleme mit der Skalierbarkeit InfluxDB in der kostenlosen Version. Das aktuelle Setup sieht so aus:


    1.) K8S Cluster 1:

    - Prometheus mit 2 Tagen Retention, dynamische Konfiguration per ServiceMonitors

    - Automatisch provisioniertes Grafana inkl Dashboards mit Prometheus als Datenquelle


    2.) K8S Cluster 2:

    - Icinga2 mit 2 Mastern und Mysql HA

    - InfluxDB für schöne Graphen zu den Werten

    - Automatisch provisioniertes Grafana inkl Dashboards mit InfluxDB und Prometheus als Datenquelle

    - Prometheus mit 2 Tagen Retention, dynamische Konfiguration per ServiceMonitors


    3.) K8S Cluster 3:

    - Graylog mit ElasticSearch

    - Prometheus mit 2 Tagen Retention, dynamische Konfiguration per ServiceMonitors

    - Zentrales Prometheus das alle anderen Prometheus absaugt und dezeit 120 Tage die Daten vorhält. ( braucht so 12 GB Ram momentan alleine....)

    - Automatisch provisioniertes Grafana inkl Dashboards mit Prometheusen als Datenquelle


    Die Nodes sind Debian preseeded und mit Ansible anschließend standardisiert K8S Deployed. Jedes der Cluster lässt sich dank Backups, Ansible und den ganzen Deployments innerhalb von ~1 - 2 Stunden neu erzeugen.


    Leider kann prometheus ja nicht mehrere Instanzen mit gleicher Konfiguration starten und die teilen sich die Arbeit wie bei Icinga2. Evtl ziehe ich noch Icinga2 und das zentrale Prometheus zusammen und lasse die 3 Icinga2 DeadManSwitch miteinander spielen ;)

    Ich persönlich habe bisher Prometheus+NodeExporter genutzt und steige gerade auf Icinga2 um. Icinga2 ist ein bisschen pain in the Ass bei der Einrichtung und Gewöhnung, aber ich finde das Arbeiten mit Director und Co. sehr entspannt.


    Das Datenbackend und die Visualisierung wollte ich eigentlich über InfluxDB und Grafana machen, aber da es noch andere Möglichkeiten gibt, will ich mich da vorher nochmal über die anderen Möglichkeiten informieren.


    In Icinga2 kannst du dir dann je nach Anwendungszweck Vorlagen und Templates bauen, die kannst du sowohl für Webhosting, Server, Dienste und alles mögliche nutzen.

    Dem kann ich nur zustimmen... Am Anfang hab ich mich sehr schwer getan, nachdem ich dann die Logik verstanden habe macht es nun Spaß in kurzer Zeit neue Checks mit einzubauen. Das Docker setup ist mittlerweile so weit gereift, dass nur noch 7 Dateien applyen muss und es wird automatisch das HA-Cluster mit Icingaweb und Director erzeugt.



    ...

    Hier wäre ich aber durchaus sehr an Erfahrungsberichten von "Umsteigern" beider Hilfswerkzeuge auf größere/flexiblere/komplexere freie Lösungen interessiert, welche den obengenannten Einsatz mit mehreren unabhängigen Überwachungs-Instanzen ("Active/Active"-Modus) beibehalten haben.


    Wie darf ich mir Active / Active vorstellen? In Prometheus würde ich dann einfach 2mal die gleiche Konfig deployen. Bei Icinga2 teilen sich die Master die Arbeit auf und führen das im Backend dann zum vollständigen Mosaik zusammen.


    Prometheus mag ich solange, wie ich innerhalb von Kubernetes bin und mithilfe von ServiceMonitor relativ einfach ans Ziel komme. Auf Hosts selber wäre mir das viel zu viele Ports freischalten und der NodeExporter kann nichtmal BasicAuth von sich aus, so wie die meisten Exporter.

    Ich habe meine Umgebung komplett auf HA gebaut und alles läuft in Docker. Hast du mehrere Systeme zur Verfügung oder wie möchtest du das Thema angehen?


    Für das Monitoring nutze ich mehrere Wege:

    1.) K8S WhiteBox Monitoring:

    Prometheus Operator der alle Nodes und ServiceMonitore scraped sowie mehrere externe System die mit dem Blackbox Exporter Performance Metriken liefern


    2.) K8S BlackBox Monitoring und weitere Hosts:
    HA Cluster in dem Icinga2 mit mehreren Mastern läuft und gegen die alle Server registriert sind. Das Setup ist komplett automatisiert in K8S Deployments und Ansible. Einfach neuen Host angeben und innerhalb von 30 Sekunden ist der mit im Monitoring drinne. Die überwachten Services hab ich mal als Screenshots angehangen. Zu den jeweiligen Diensten gibt's dann direkt Graphen aus InfluxDB welche im Web-Interface angezeigt werden.