Posts by michaeleifel

    Laut Support ist es nicht möglich. Man kann ausschließlich externen Speicherplatz hinzubuchen, den man aber auch ausschließlich für Backups benutzen kann und auch keinen direkten Zugriff darauf hat.

    Der Storagespace wird doch per NFS realisiert und den kannst du, wie du es schon gemacht hast, im System mounten. Man "sollte" ihn aber nicht als vergleichbare Lösung zu EBS oder H. Volumes sehen, da er eine Trafficbeschränkung hat.

    Das Gateway ist aber Interface Specific. Ich glaube nicht, dass Cilium eine fe80::1 Route über das Hauptinterface announced.

    Das tut es doch sicherlich für ein anderes (virtuelles) Interface?


    Ggf. einfach die Prio der Default Route anpassen.

    Würde ich eigentlich auch erwarten von meinem aktuellen Kenntnisstand. Habe das gleiche Setup bei einem anderen Anbieter der IPv6 Gateway über nicht fe80::1 löst und dort tritt das Problem nicht auf. Es tritt auch nicht direkt nach dem Reboot auf, aber zuverlässig und wiederkehrend bis zum nächsten Reboot.

    Iist beides Debian 11 mit der gleichen Konfiguration ( Preseed + Ansible ). Sobald ich das Kube Proxy Replacement deaktiviere, funktioniert sofort wieder IPv6 auf der Netcup Node, ohne einen Reboot. :schulterzucken:

    Falls jemand von euch Cilium CNI mit DualStack IPv6 einsetzt und das Kube Proxy Replacement nutzen will: Keine gute Idee.


    Dadurch dass bei Netcup das IPv6 über die fe80::1 als Gateway läuft und Cilium dann eine ähnliche Route announced, verliert der Host die v6 Konnektivität. Sobald ich das Kube Proxy Replacement deaktiviere, geht v6 wieder. :(

    Bin irgendwie auch schon seit Monaten am Überlegen, ob ich den Wechsel (aktuell Standard-HP-Laptop mit NVIDIA-Karte, nichts besonderes und popOS installiert) auf ein MacBook (eigentlich fast egal ob M1 oder M2) wagen will. Sowohl privat als auch beruflich nutze ich liebend gerne Linux. Die Hardware kombiniert mit einem Arch oder Asahi wäre schon reizvoll, würde aber auch mal macOS probieren.


    Hatte auch das M1 Air von 2020 von nem Kollegen für eine kurze Dauer ausgeliehen und war auch recht angetan..


    Aber dann schreckt der Gedanke ab, dass man je nach Modell noch Adapter braucht und ich nicht mehr schnell ne Festplatte oder RAM-Stick tauschen/aufrüsten kann. Nunja, und so geht ab und an mal ein Gerät in den Warenkorb und dann wieder raus. Hmpf.

    Mahlzeit,

    meine Gedanken zu dem Thema, da ich in der selben Situation war.


    Die Adapter sind auf Dauer schon nervig, deswegen bin ich auf USB C Dockingstation gegangen auf festen Plätzen. Unterwegs eher nur Bluetooth oder USB C Sachen.


    Was mich mittlerweile echt stört ist das Konzept, dass die Menüpunkte immer oben in der Leiste sind. Sofern man nicht Tastaturaffin in den Programmen ist, wird Multitasking mit mehreren Fenstern auf 1mal echt nervig und lange MausWege zur Folge. Zumal jede Tastenkombination aber in der UI die Mausklicks simuliert, wenn mal drauf achtet.


    Docker Container werden über eine VM realisiert, was aber auch relativ viel Hitze verursacht. Podman leider das selbe.


    Automatisierung mit Ansible geht relativ gut als Setup, bis auf kleinere Dinge.


    Für cool aussehen, 1 Browsertab offen haben und im Web surfen, kann ich es aber empfehlen.

    Mahlzeit,

    bitte sehr.

    Zeigt eure Frontend Domain dann per DNS auf die Failover IPv4? und die Master übernehmen das Routing per NGINX Ingress Controller?

    Jein. Es müssen nicht unbedingt die master sein, sondern die "Ingress" Nodes. In meinem Fall erledigt HAProxy das. Alle Dienste sind von allen Ingress Nodes erreichbar. Ich kann also auch meiner /etc/hosts den Domaineintrag gegen die Adresse eines Worker tauschen und erreiche trotzdem weiterhin alle Dienste. Das ist auch tatsächlich der DNS Fallback vom Anbieter, wenn die Failover IP doch mal nicht tut.


    Gruß

    Ich starte meinen PC, und das erste was ich sehe: Whaaaaa, warum denn jetzt schon wieder? :(

    pasted-from-clipboard.png

    1 Minute? Ich dachte immer das ist recht viel. Belastet das so einen RS nicht unnötig stark?

    Deswegen achte ich darauf Skripte zu verwenden die von der Belastung her sehr gering sind und effizient nur die Daten ermitteln, die ich brauche. Beispielsweise brauche ich nicht von allen temporären Netzwertkinterfaces die Daten, dass sie eine DNS Abfrage an meinen Host gemacht haben. Da ist Netdata deutlich hungriger.


    Hatte gestern (vor mehr als 24 Stunden) ein Ticket an Netcup geschrieben und obwohl ich noch dieses SLA+ Paket habe, noch keine Antwort. Ist eh nicht wichtig, aber war es nicht mal so das alle Mails meist noch am selben Tag beantwortet wurden?

    Das Paket hilft dir auf der telefonischen Schiene, wenn eins deiner System "betroffen" ist.

    Icinga2 sieht spannend aus.

    Scheint auch einen Push Agent (oder passiv mode zu haben)

    Werde ich mir auf jedenfall mal am Wochenende anschauen

    Es ist allerdings ein "Monitoring Framework" und die Einstiegshürde ist relativ hoch, Konfigurationsbeispiele oder das Icinga2 Buch helfen dabei den eigenen Plan reifen zu lassen. Wenn man ein gewisses Setup aber erstmal hat, lässt sich das defacto beliebig erweitern.


    Was ich sehr mag ist der "State of the Union". Ich muss nicht erst ein Grafana Dashboard "zusammenbasteln" und in der Icinga2 Kette reicht 1 Master aus, damit ich weiterhin Notifications habe. Bei Prometheus gibt's zu viele kleine Rädchen ( Prometheus konnte nicht pullen, der Alertmanager ist down, Grafana konnte Prometheus nicht abfragen und denkt das alles in Ordnung ist, etc.) Für Metriken sehe ich es eher geeignet und dafür nutze ich es auch gerne.


    Wenn ihr Server etc monitort, wie oft pingt ihr diese dann an?

    Mittlerweile reicht mir 1mal die Minute aus. Das erkennt schnell genug wenn was kaputt ist und die Reaktionszeit ist sowieso immer mehr.

    Icinga2 seit Ewigkeiten ;)

    Die von dir genannten Punke waren auch Grund für mich, neben der vernünftigen Umsetzung von HA und nicht einfach alles sinnlos doppelt sammeln.


    Hab mal in einem Projekt angefangen das ganze als Kubernetes Docker Stack zu bauen und mittlerweile deployed es von Scratch -> 100 in unter 5 Minuten vollautomatisiert und sammelt aktuell ~ 40-50 Metriken pro Host ein die überwacht werden.


    Gruß

    Man darf bei solchen Vergleichen nicht vergessen dass es sich bei EBS um ein SAN handelt, das wesentlich mehr Features und bis zu 64 TiB auf einem Volume bietet. Bei Netcup handelt es sich um lokalen Speicher, der günstiger und einfacher zu managen ist.


    Von daher sehe ich es persönlich so dass man Features für ein gutes Preis/Performance Verhältnis eintauscht. Weiter so Netcup.

    Ich sehe SAN Storage nicht immer unbedingt als Vorteil, dafür hab ich zu viele leidige Erfahrungen gemacht, in denen aber viele verschiedene Faktoren ( Kosten, Kenntnistand über Management, Überbuchung etc. ) eine Rolle gespielt haben. Für die Ausfallsicherheit ist es natürlich nett, ersetzt aber keinesfalls geclusterte Instanzen.


    Wenn doch nur der Storagespace von Netcup nicht diese Traffic Limitierung hätte oder nicht bei Überschreitung nicht mehr ansprechbar wäre :seufz: bis dahin tut Ceph seinen Dienst sehr gut.

    Da ich beruflich beim Anbieter bin wo man standardmäßig nur 100 IOPS für 100GB SSD kriegt, kann ich mich hier nicht beklagen. Eher würde ich mir manchmal soga wünschen, dass es definierte Limits und Garantien gibt mit denen man rechnen kann und dass größere Server entsprechend mehr bekommen als ein kleiner 2,99€ Server. Ich nehme als Ziel immer das was ich beim großen "A" für die gleiche Platte an IOPS bekommen würde als GP2/3.


    Vor etwa 3 Wochen habe ich beim Support ( wieder einmal ) eine Maschine auf einen anderen Host migrieren lassen, da es Lastspitzen gibt, ohne dass die CPU Last einen Sprung macht. Auszug aus Grafana:

    - Das orange bei der CPU ist iowat

    - Disk IO brechen plötzlich ein

    - Disk Throughput hat keinen Peak

    pasted-from-clipboard.png


    Solche Einbrüche gibt es immer mal zwischendrin. Hier z.B. ein VPS Black Moon Wien:

    Wieviele IOPS sind das umgerechnet? Es gab hier doch mal einen Thread wo jemand genau das "Problem" hatte, dass er auf 40MB/s "limitiert" wurde, weil er dauerhaft viel auf der Platte macht.