Beiträge von michaeleifel

    Man darf bei solchen Vergleichen nicht vergessen dass es sich bei EBS um ein SAN handelt, das wesentlich mehr Features und bis zu 64 TiB auf einem Volume bietet. Bei Netcup handelt es sich um lokalen Speicher, der günstiger und einfacher zu managen ist.


    Von daher sehe ich es persönlich so dass man Features für ein gutes Preis/Performance Verhältnis eintauscht. Weiter so Netcup.

    Ich sehe SAN Storage nicht immer unbedingt als Vorteil, dafür hab ich zu viele leidige Erfahrungen gemacht, in denen aber viele verschiedene Faktoren ( Kosten, Kenntnistand über Management, Überbuchung etc. ) eine Rolle gespielt haben. Für die Ausfallsicherheit ist es natürlich nett, ersetzt aber keinesfalls geclusterte Instanzen.


    Wenn doch nur der Storagespace von Netcup nicht diese Traffic Limitierung hätte oder nicht bei Überschreitung nicht mehr ansprechbar wäre :seufz: bis dahin tut Ceph seinen Dienst sehr gut.

    Da ich beruflich beim Anbieter bin wo man standardmäßig nur 100 IOPS für 100GB SSD kriegt, kann ich mich hier nicht beklagen. Eher würde ich mir manchmal soga wünschen, dass es definierte Limits und Garantien gibt mit denen man rechnen kann und dass größere Server entsprechend mehr bekommen als ein kleiner 2,99€ Server. Ich nehme als Ziel immer das was ich beim großen "A" für die gleiche Platte an IOPS bekommen würde als GP2/3.


    Vor etwa 3 Wochen habe ich beim Support ( wieder einmal ) eine Maschine auf einen anderen Host migrieren lassen, da es Lastspitzen gibt, ohne dass die CPU Last einen Sprung macht. Auszug aus Grafana:

    - Das orange bei der CPU ist iowat

    - Disk IO brechen plötzlich ein

    - Disk Throughput hat keinen Peak

    pasted-from-clipboard.png


    Solche Einbrüche gibt es immer mal zwischendrin. Hier z.B. ein VPS Black Moon Wien:

    Wieviele IOPS sind das umgerechnet? Es gab hier doch mal einen Thread wo jemand genau das "Problem" hatte, dass er auf 40MB/s "limitiert" wurde, weil er dauerhaft viel auf der Platte macht.

    AH, verstehe.

    Zumindest die Dokumentation ist aber sehr ausreichend für alle Parameter. Ist es denn schon stabiler geworden?

    Code
    preempt_delay

    welcher dafür sorgt, dass nicht zu schnell wieder zurück geschwenkt wird. Das ist vor allem in Verbindung mit der SOAP API wichtig, da ein Umschalten immer eine gewisse Zeit braucht. Wenn keepalived wieder zurückschalten will, aber das Umschalten noch nicht fertig ist, hat der falsche Master die Failover IP und nichts geht mehr. Da muss man etwas aufpassen. Ich würde preemt_delay daher immer mindestens auf 30 setzen.

    Das ist mir irgendwann "zu doof" geworden und habe deswegen neben dem Umschalten über die Notify Skripte noch zusätzlich einen "watcher" laufen der den keepalived status prüft und falls die Node der Master ist, die SOAP API fragt ob die IP auch an den Server geroutet ist, das kan man über

    ns1:getVServerIPs prüfen. Ist in 99% der Fälle aber nicht notwendig.

    Bitte,

    was ist denn an dem CloudVLAN Produkt kompliziert? Im Gegensatz zum roten H hast du kein DHCP, aber dafür kannst du auch IPv6 machen, was bei denen nicht geht ( selber leidige Erfahrung gemacht )


    Das CloudVLAN free ist halt auf 100Mbit limitiert. Hängt von ab, was du da alles drüber schickst. Bei mir geht der Storage auch darüber, deswegen hab ich ein größeres.

    Zitat

    Die Frage ist nur: Welchen Wert wählt man hier?
    Der Master ist durch Backups, Uploads etc zu ausgelastet um die Paket zu verarbeiten

    Genau deswegen will ich die IP ja rüber schieben, der Host hat gerade besseres zu tun und antwortet nicht auf Pakete. Und wie du selbst schreibst starten sowieso alle als Backup ;)

    Am Anfang hatte ich diese Konfiguration auch, bin aber mittlerweile dazu übergegangen, dass einer den initial State Master hat, der aber sofort hinfällig wird, wenn ein Healthcheck fehlschlägt und dadurch sich die Priorität auf einen kleineren Wert verringert als von einem der Backups.


    Omitting the priority sets the maximum value würde ich so lassen.

    Was ist denn bei der Cloud bei euch ausgefallen?
    Wir haben da ein paar Dinge liegen und hatten noch nie einen Ausfall - den wir mitbekommen haben.
    Selbst wenn da eine HDD ausfällt müssten doch die Sicherungssysteme greifen und der user merkt davon nichts.
    Selbst bei meinem HomeNAS merkt ja keiner dass eine Platte im ZRAID1 ausgefallen ist - außer ich natürlich weil ich ne mail bekomme

    Fall 1) Node ist hängen geblieben und kann weder ausgeschaltet, noch rebootet werden. Hängt irgendwo in der Luft herum. Erst nach Supporteingriff wieder alles ok.

    Fall 2) CI Builds schlagen fehl, die Node fährt nicht korrekt hoch, wird durch eine neue Node ersetzt die wieder die gleiche IP hat und nicht erreichbar ist. Spiel wiederholt sich ~10 Mal mit der gleichen IP am gleichen Standort. Standortwechsel hat dann geholfen.

    Hallo,

    Paul hat schon ein paar gute Ideen in den Raum geworfen.


    Zu deiner Konfig hab ich paar Fragen:
    1) Ich sehe keinerlei Konfiguration für Healthchecks von Diensten beispielsweise, ist das so gewollt?

    2) Authentication kannst dir glaub sparen, so lese ich zumindest die Notiz:

    Code
    # Note: authentication was removed from the VRRPv2 specification by RFC3768 in 2004.

    3) Warum nimmst du explizit unicast? Das ist meines Wissens nach bei Netcup nicht notwendig


    Gibt es eine Node bei dir welche state Master hat?

    Gruß

    Gerüchte sagten auch schon mal, daß SLA auch noch ein "Felixprodukt" ist und es bei der Bearbeitung von Störungen keinerlei Unterschied gemacht hat (nach dem Kauf durch Anexia).

    Meinst du Mailbearbeitung? Falls was ausfällt, will ich jemand telefonisch erreichen können. Und wenn der mir nur sagt, dass das Problem bekannt ist, dann glaube ich das. ist zwar naiv, aber ich hoffe dass die so arbeiten wie mein Kunde es von mir auch erwartet.

    Ja, aber ist da dann ein Unterschied zur "normalen" Notfallhotline, also kommst du da ohne Servicelevel nicht so schnell durch oder dauert es dann länger? Oder ist mit dem Servicelevel das Risiko ausgeschlossen, dass es bei eigenem Verschulden kostenpflichtig ist?

    Das weiß ich nicht, in meinen 2 konkreten Fällen war ich froh dass ich es habe. Und es war nach 11 Uhr abends, als es passiert ist.


    Beim roten H wirds mit den Cloudinstanzen muss man bis zum nächsten Tag warten und hoffen, dass sich das Problem selbst erledigt. Hatte da ein Problem beim provisionieren mit der IP. Und beim erneuten Provisionieren immer wieder die gleiche IP bekommen, mit dem selben Problem. Nur durch Änderung des Datacenter ging es dann.

    Ja, in der Tat. Hab die Notfallhotline angerufen als mein Monitoring mich alarmiert hatte dass eine Node ausgefallen ist und habe selbst spät abends nach ca. 15 Sekunden jemanden dran gehabt, der sich das Problem mit dem RS sofort angeschaut hatte. War in beiden Fällen ein Problem mit dem Hypervisor.

    Ja, hab es und 2 mal bisher gebraucht.

    Und seit dieser Woche habe ich einen VPS 200 G10s, der soll Resolver spielen für die anderen Server.

    Im Moment hängen da der Mailserver und der Mailserver in spe dran im Testbetrieb, das funktioniert soweit auch schon recht brauchbar. So zuverlässig wie die Resolver von netcup ist er wohl schon ;). Kunststück. Er macht das nur für Server in meinem Cloud vLAN Free und eben für sich selbst. Da bin ich mir aber noch nicht schlüssig, ob das irgendeinen Sinn macht :rolleyes: . Ok, die vorher verwendeten Resolver von Google und/oder Cloudflare sind damit raus bzw werden nur noch benutzt, wenn der eigene Resolver nicht verfügbar ist. Damit können auch DNS-Blocklisten und Whitelisten von den Mailservern effektiver genutzt werden, was mit Google&Co oft nicht funktioniert, weil die recht schnell ihr Abfragelimit bei verschiedenen Listen überschreiten. Und die anderen Server müssen die Auflösung nicht selbst übernehmen, was sie aber im Moment noch mehr als locker nebenbei stemmen könnten. Aber es ist wenigstens eine halbwegs sinnvolle Verwendung für das Cloud vLAN Free und ich lerne nebenbei was über Resolver und Linux Netzwerke.

    Am Anfang hatte ich auch überlegt so eine Konstellation zu betreiben. mittlerweile aber verworfen. Auf meinen 3 Nodes läuft Kubernetes als Cluster und mittlerweile haben alle ihren eigenen Unbound inkl. Blocklisten, was dann auch der Cache für die ganzen Pods sind, die machen doch ne Menge DNS Requests.


    Hat jemand einen Trick zur Hand wie den Netcup DNS überzeugen kann die externen Nameserver für ne Domain zu ändern? Einträge sind bereits aktualisiert indem ich einmal zurück auf Netcup Nameserver bin und dann die neuen eingetragen habe. Für eine mit dem Webhosting verbundene Domain hat das geklappt, bei der anderen "zusätzlichen" Domain hängt es irgendwo fest:

    Die Nameserver wurden erfolgreich aktualisiert. Zone wurde zum löschen in den netcup Nameservern vorgemerkt.Bitte beachten Sie, dass es bis zu 48 Stunden dauert, bis die Änderung weltweit bekannt ist.

    So habe nun ebenfalls auf VirtiO umgestellt

    Werde das ganze mal beobachten und ggf. wieder umstellen sofern Virtio Probleme machen sollte. Denn ich habe hier im Forum gelesen das es mit dieser Methode unter umständen zu Problemen kommen kann, hänger usw....

    Aber es ist doch beides VirtIO, oder nicht? https://mpolednik.github.io/20…irtio-blk-vs-virtio-scsi/

    Beim roten H ist SCSI fest eingestellt und man kann es nicht ändern. Wundert mich allmählich aber dass Netcup das Thema noch nicht aufgegriffen hat und letztendlich einen Leitfaden oder so im Wiki niedergeschrieben hat.

    Nutzt du denn lokal auch die FQDNs die nicht .local oder so sind?


    Zumindest bei der Fritz!Box ist es so, dass der DHCP Name auch einen defacto DNS Eintrag erzeugt, unter dem ich das andere Gerät auch erreichen kann. Persönlich habe ich deine Aufgabenstellung über unbound mit lokalen Zonen gelöst und zusätzlich cached er auch die Einträge von Upstream DNS Server.

    Im lokalen Netz würde ich trotzdem immer versuchen mit Einträgen zu arbeiten, die unabhängig von der Erreichbarkeit externer NameServer sind.