Beiträge von Hecke29

    Hallo,


    vorab bitte ich um Entschuldigung, dass ich diesen Thread ausgrabe; doch bei der Suche nach "Failover Webservice" findet man vor Allem iesen Thread hier und deshalb wollte ich hier kurz eine Info bzw. auf einen möglichen Stolperstein hinweisen.


    tl;dr: Nur https://www.servercontrolpanel.de/WSEndUser?wsdl nutzen (vorne kein "v"; nicht vServerControlPanel.de)


    tl;dr (extended): Mit dem Webservice https://www.vservercontrolpanel.de/WSEndUser?wsdl (mit "v" vorne, im folgenden "alter Webservice") kann eine FailOver-IP mehreren Servern zugewiesen sein. Das Verhalten des Routings ist dann nur noch mäßig zuverlässig. Laut Support soll nur noch der Webservice unter https://www.servercontrolpanel.de/WSEndUser?wsdl genutzt werden (ohne "v"; "neuer Webserivce") [Verhalten wird heute Nacht verifiziert].

    Hintergrund

    Ich habe in meinem Setup drei Server per corosync/pacemaker in einem Cluster, in dem die FailOverIP auch eine Ressource ist (sorgt dafür, dass die IP auf eth0:0 auf jeweils dem aktive Server gebunden wird). Ebenfalls wird ein Request an den Webservice ausgelöst, dass die FailOver-IP auf den dann aktiven Server geroutet werden soll. Was mir erst heute auffiel: Alle drei Server hatten die FailOver-IP zugewiesen (wohl, weil sie über die Zeit alle mal primary waren). Das Ganze hat die letzten Monate dennoch gut funktioniert; es wurde wohl quasi immer (Zufall?) an den "neusten" Server geroutet.


    Bis heute um zwischen 8:15 und 8:30 Uhr. Da wurde die IP scheinbar gar nicht mehr geroutet oder so; auf jeden Fall kamen Pakete, die an diese IP gesendet wurden auf keinem der drei Server an. Zuvor wurde kein Request an die API ausgelöst und ich (alleiniger Zugriff auf CCP / SCP) war noch am frühstücken. Ich hab ca. 1,5h gebraucht bis ich realisiert habe, dass im SCP an allen drei Servern die FailOverIP dran steht. Habe sie dann bei allen drei entfernt und absichtlich den aktuellen Primary gekillt, um ein FailOver zu provozieren; danach ging alles wieder wie gewohnt.


    Zwischenzeitlich habe ich mit dem Support Kontakt aufgenommen (NC-2017071710002805) und hoffe, dass durch die Umstellung des Webservices das Problem nicht mehr auftreten kann.


    Da die FailOverIP im produktiven Betrieb ist, werde ich erst heute Nacht testen können, ob das FailOver-Switching mit dem neuen Webservice zuverlässig funktioniert oder ob die IP dann wieder an allen Servern dran steht.


    Vielleicht hilft jemandem, der auf ähnliche Probleme stößt, dieser Post.

    Storage-Cluster (ceph): 3x S8000

    MariaDB-Galera-Cluster: 3x RS1000+

    Backup-Compression & -Export: VPS 1000


    und weitere nicht genauer spezifizierte für:

    • redundantes (3 Systeme) haProxy-Setup mit FailOver-IP
    • Mehrere RS als Webserver inkl. Plesk, die o.g. Storage & DB-Cluster nutzen
    • Monitoring, Mail, Build-Server & Ansible-Provisioning

    SMTP ist ein Protokoll nur zum Senden von E-Mails.

    Wie du selber schreibst möchtest du mit Thunderbird E-Mails holen. Übliche Protokolle dafür sind IMAP und POP3 - siehe Eintrag #5. Exim4 kann das alleine nicht.

    Auch in den Bereich der Verschleierung fällt "(SSH-)Port-Knocking", das sich anbietet, wenn man nur mit einer IP arbeitet (und keine weitere [private] IP hat, auf der der SSH-Daemon hört). Der SSH-Port wird hierbei erst für eine konkrete IP gewhitelisted sobald bestimmte Ports direkt aufeinander folgend in einer bestimmten Reihenfolge "angeklopft" werden. Das verhindert das Ausspähen des SSH-Ports per Portscan recht gut. Ich nutze dies mit sich wöchentlich ändernden Ports.

    Ich habe mich im YouTube-Kontext (Kennzeichnungspflichten) damit auseinander gesetzt (allerdings auch nur Recherche in Form von PodCasts, Texten und Gesprächen mit Leuten aus der Branche) und meine Auffassung ist wie folgt:


    Wenn du das Produkt nutzt und im Textverlauf passend schreibst, dass es gut ist (und das zum Beispiel auch einem guten Freund so sagen würdest) ist das keine Werbung, es sei denn natürlich, du hast Geld dafür bekommen; dann eigentlich immer Kennzeichnungspflicht.


    Komplizierter wird es, wenn du das Produkt zum Beispiel kostenlos gestellt bekommen hast; das kann in bestimmten Fällen Kennzeichnungspflichtig werden, nämlich je nach Wert des Produktes.


    Es gibt dazu von den Medienanstalten Informationsmaterial, das recht einfach erklären soll wie es funktioniert: http://www.die-medienanstalten…_Werbung_Social_Media.pdf Generell würde ich diese Regeln analog auch auf Blogs übertragen.


    Viele Grüße aus Hamburg

    Es gab schon lange keine News mehr von netcup zu irgendetwas Neuem und ich bin schon ganz hibbelig, was der Sommer noch an Aktionen bringen wird...


    Geht das nur mir so?

    Ich beleb, den Thread mal wieder, da ich grade etwas ähnliches tue.

    Zitat

    Auch welcher STONITH Typ hier bei NetCup der Richtige ist und entsprechend welche Login-Daten ich benötige ist mir noch unklar.

    Da ich den STONITH-Typ ssh ungerne in meiner produktiven Umgebung nutzen möchte, würde mich das auch interessieren.

    Ich habe schon überlegt, ob es eine Option wäre einen eigenen STONITH-Typ zu schreiben, der die netcup-XML-API bedient und den Server von außen resettet (Im SCP "Erzwungener Neustart").


    Hat jemand Erfahrungen mit STONITH in der netcup-KVM-Umgebung?

    Man kann vieles tun:

    • Den Dienst entfernen, wenn man ihn nicht braucht
    • Den Port whitelisten also z.B. mit iptables nur für bestimmte Hosts freigeben auf denen man diesen Dienst benötigt
      • Die scannende IP herausfinden und blacklisten ( :D )
    • Einen Mail-Filter einrichten, der diese Abuse-Mails wegfiltert
    • Alles so lassen wie es ist

    Habt ihr schon einmal etwas von ansible gehört? Ich würde auf jeden Fall heutzutage nicht mehr unbedingt irgendein "install.sh"-Script ausführen, das mir sowas - ggf. nicht idempotent ausführbar - erledigt. Ein fertiges Playbook inkl. config-templates und entsprechender Rollen ist mEn zukunftsträchtiger.


    Also die GUI kann ja quasi auf ein ansible im Hintergrund aufgesetzt werden, was auch losgelöst und nur teilweise genutzt werden könnte.

    Wird es in Zukunft vielleicht XS-Server im dauerhaften Sortiment geben? :) (Hab ich das schonmal gefragt?)
    Seit das im Adventskalender war, check ich jeden Tag die Seite, dass ich das ja nicht verpasse; falls ein solcher Fall eintritt :)

    Ich wohne am Arm der Welt und wurde nach einer Querstraße gefragt.


    Als ich die nannte, die direkt vor meiner Haustür verläuft, kam nur: "Die seh' ich hier jetzt nicht".
    Das Problem war, dass diese "Straße" (Feldweg trifft es eher) erst seit wengen Wochen überhaupt einen Namen hatte


    Ich konnte das aber erklären und trotzdem Kunde werden :P


    Die Vorgehensweise hat mich überrascht, aber ich empfinde das eigentlich sogar eher positiv. Immerhin hat dann jeder Kunde schonmal definitiv Kontakt mit dem Support gehabt :)

    dynMap war mal für 1 Woche maximal auf dem Server, daran liegt's nicht, denke ich mal.
    Einfach den /tmp komplett leeren? Ist aber nicht sehr viel drin:


    [Blockierte Grafik: http://oi43.tinypic.com/bfn7fb.jpg]

    Auch, wenn sich das vielleicht schon erledigt hat:


    Ich würde trotzdem mal im plugin-Verzeichnis dynmap löschen (vor allem die Webdatein!), das war nämlich bei mir das Problem. Dynmap erzeugt für alle 8x8-Blöcke ein Bild. Das heißt ein Chunk (16 x 16) sind schon 4 Dateien. Kannst dir vorstellen, was da zusammenkommt, wenn man Obenansicht, Seitenansicht jeweils Tag und Nacht hat. Wären dann schon 16 Dateien pro Chunk ;) Und das für nur eine Welt.


    Du kannst auch freundlich beim Support fragen, dann wird deine Inode Anzahl verdoppelt ;) (man sollte natürlich trotzdem haushalten).

    Dies ist eine Vermutung:


    $network wartet vielleicht darauf, dass der DHCP Server dir eine IP zugewiesen hat wohingegen dies bei $all vielleicht noch nicht der Fall ist, wodurch der TS3 Service nicht gebunden werden kann.


    Reine Spekulation, aber ich könnte es mir in der Richtung vorstellen.