Beiträge von michaeleifel

    Natürlich nicht, da es ein Fjord und kein See ist. :P

    Spaß beiseite - ich habe noch nicht herausgefunden, wie ich unter Ubuntu bzw. Gnome ein Panorama-Hintergrundbild über alle drei Bildschirme strecken kann. Wenn jemand weiß, wie das geht, würde ich mich über eine Erleuchtung diesbezüglich freuen. :)

    Nutze Plasma. Der einfachste Ansatz ist selber ein Bild zu "zerschneiden". Mit GIMP geht das in < 2 Minuten und einzeln zuzuweisen.

    So sieht's bei mir gerade aus:

    Screenshot_20240106_171349.png

    Ich hab hier zum Vergleich mal meinen RS 1000.
    Warum sind bei mir die 4k-Werte so schlecht? Falsche Uhrzeit?
    Habe zumindest allgemein festgestellt, dass man um 00:00 Uhr kein YABS erstellen lassen sollte. :P

    Welcher Festplattentreiber ist denn eingestellt? Virtio ( VirtIO BLK) liefert beim Benchmark bessere Werte, SCSI ( VirtIO Scsi ) ist "langsamer", läuft aber zumindest bei mir stabiler und weniger oft Probleme mit IO.

    Deswegen finde ich es schade, dass Server wie dieser hier kein neues Zuhause finden. Im Vergleich zum heutigen Türchen hat dieser doppelt so viel RAM, doppelt so viel Platte, und ist sogar noch ein paar Cent günstiger. Aber: nur 2 anstatt 4 Kerne.

    Die gab es ja mal zum Einstandpreis von < 5€ wenn ich mich richtig erinnere. Für eine Testnode hatte ich solch eine auch im Betrieb gehabt und auch gerne genutzt um vor dem Rollout Sachen zu testen oder als kleinere Worker Nodes. Mittlerweile bin ich aber dazu übergegangen mir stundenweise Server zu mieten für diese Tests, wo ich auch mit Terraform etc. die Ressourcen dynamisch erzeugen kann und die restlichen Sachen sind konsolidiert.


    Für Kubernetes ist die Nodegröße halt einen Tick zu klein und für nen Webserver etc. zu groß. Zudem wird die Abrechnungsperiode: alle 12 Monate im voraus einige abschrecken.

    Wenn es die ARM Server doch nur mit stündlicher Abrechnungen geben würde...

    Gilt eigentlich bei den ARM Servern auch:

    Kündigungsfrist: mindestens 31 Tage vor Ablauf der Mindestvertragslaufzeit


    Oder kann ich die nach dem 1. Monat jederzeit stündlich kündigen?

    Das ist auch eine schöne Idee.

    Wenn es ein langer und großer Test kommt: Nutzt du dann die Namen der Raumstationen?

    Da meine Tests "bisher" nicht > 5 Server umfassen tun es erstmal die Namen der Space Shuttles, auch der "Curiosity" war schon im Einsatz für die ARM Forschung. Raumstationen sind dann eher die Namen der Kubernetes Cluster gewesen ;)

    Bei mir sinds bei den Kubernetes Clustern die klassichen Bezeichnungen:

    - k8s-master

    - k8s-worker


    Die restlichen Servern dienen der Erkundung sowie dem Testing und tragen deshalb die Namen von Raumsonden ( Lunik, Sputnik, Luna, Helios...)

    Endlich spricht es einmal jemand aus! So ist es! :saint:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Ist jetzt vielleicht nicht in jeder Situation die beste Lösung, aber ich habe vor meine Kubernetes Cluster (IPv4 only) einfach einen Cloudflare Proxy davor geschaltet. Der Enduser kann sich daher mit IPv4 + IPv6 verbinden, ins "Backend" geht die Verbindung dann aber mittels IPv4. Mit diesem Kompromiss kann ich ganz gut leben.

    Danke für den Denkanstoß. Auf der eingehenden Seite habe ich kein Problem da der Loadbalancer die IPv6 terminiert und im Backend an den IPv4 Ingress weitergibt und auch der Rückweg somit ohne Probleme klappt. Allerdings geht halt reiner IPv6 Egress aus dem Pod heraus nicht, bspw. ping6

    Mit diesem "technischen" Kram verdiene ich tatsächlich mein Brot. Es gibt bei dem Provider aus Falkenstein 2 Dinge weswegen ich bisher noch nicht dort bin:

    - IPv6 im CloudVLAN gibt's nicht und somit auch nicht in Kubernetes

    - Die Mindestgröße beim Storage ist 10GB, was bei einer PVC Anzahl von ~40 Stück dann auch wieder als "Kleinvieh macht auch Mist" zählt. Mit Ceph war mir das egal da ich einfach "X" PVCs zum gleichen Preis habe


    Falls jemand zu Punkt 1 ne Idee / Lösung hat, bin ich offen für Input. Die Interfaces einfach mit IPv6 versorgen ist keine Option, da diese nicht routed werden zwischen den Nodes.

    Nehm ich gerne, DM ist raus. :)


    hmm, also kurz gesagt: viel Aufwand für eine nicht so gut funktionierende Lösung, die dann auch nicht gerade günstig ist. Mal schauen, was der ein oder andere noch so berichtet. Dann bleib ich vielleicht hier im privaten Umfeld bei Docker und spiele nur mit einem Single-Node-K8s-Cluster mit https://github.com/rancher/local-path-provisioner als "Storage" rum. :saint: (Auf der Arbeit sind wir fast nur noch mit Kubernetes (Cloud und onPremise) unterwegs.)

    Seit das rote H ARM-Server hat, hab ich mir das dort auch mal angeschaut... gefällt mir.

    So ist die Quintessenz.


    Ich benötige aktuell ~250GB Storage für die Sachen die dort laufen. Zu klein für dedizierte Storageserver und teils sind dort Sachen drin die ich für die tägliche Arbeit brauche, da ist Single Node auch nicht so richtig ne Option.

    3 RS 2000 reichen vom RAM inkl. der Storagelösung nicht aus, deswegen sind es 3 RS 4000 G9 mit 32 GB RAM und 800GB SSD die dann mit dem VLAN zusammen im 3 stelligen Bereich pro Monat liegen.


    Mit "Remote" Storage würden mir die 16er Nodes völlig ausreichen. Auch ne Überlegung war den LocalPath Provisioner zu missbrauchen und gemeinsam mit https://linux.die.net/man/8/cachefilesd zu nutzen. Aber durch die völlige Intranzparenz wieviel Traffic man verbraucht hat, hab ich das nicht verfolgt. Dann hätte ich mir mehrere geholt und zwischen denen "ausbalanciert".


    Die Komplexität mit replizierten Datenbanken will ich mir auch nicht freiwillig antun. Ich kann mit Failover leben, wenn das ohne mein Zutun innerhalb von ~10 Minuten wieder online ist.


    Insgesamt würde ich aber vermuten dass mein Use-Case nicht üblich hier ist, wenn ich schon sehr oft lese wie "krampfhaft" versucht wird ein Server durch die Kope von einem 1:1 Image aufzusetzen. Dahingehend habe ich ruhige Nächte. Erst gestern wieder in einem Testlauf mit ~10 Minuten die Ressourcen über Terraform erzeugt, Maschinen per Ansible eingerichtet, k8s Cluster hochgezogen und Workload deployed.

    Verbrauchst du tatsächlich 200 TB im Monat pro RS-Server? Oder habe ich dich da nicht richtig verstanden? Denn der aus Falkenstein gibt nur 20 TB Traffic pro Dedicated Server.

    Ich meinte "Traffic / Monat" von https://www.netcup.de/vserver/storagespace.php

    Gibt 2 Probleme dabei:

    1.) Das Volume ist laut Support offline sobald diese Grenze erreicht ist

    2.) Man sieht nicht, wieviel verbraucht wurde, also ohne Vorwarnung

    3.) Eine "Freischaltung" gegen weiteres Entgelt ist nicht vorgesehen


    Für meine Zwecke würde der normalerweise völlig ausreichen, allerdings ist das halt am Ende das Totschlagkriterium was in Verbindung mit anderen Dingen von oben dann leider mich zu Alternativen umschauen lässt. Hab ganz vergessen noch das Thema Firewall zu ergänzen.

    Dann noch ne kleine Frage an die, die Kubernetes einsetzen: Nutzt ihr ceph? Was nehmt ihr da als Festplatte(n)/OSD, das Storage im CCP welches man zu einem Server hinzufügen kann?

    (Da hier in letzter Zeit Produktideen für netcup diskutiert wurde, irgendwie sowas als Storage zum Buchen wäre nicht schlecht.)

    Ich nutze aktuell "noch" Ceph mit Rook ( https://github.com/rook/rook ) bin aber aktuell quasi fast auf dem Absprung zum roten H wegen dem Thema Storage und ARM. Der Storagespace würde mir tendenziell reichen, der hat aber ein "Traffic" Problem wonach das Volume offline ist und auch nicht gegen Gebühr mehr Traffic kriegst. Gefühlt seit 2 Jahren frage ich immer wieder zu dem Thema bei Netcup.


    Insgesamt läuft das ganze OK, allerdings mit den Kosten für CloudVLAN, FailoverIP 4/6 ist der Vorteil im Vergleich schnell aufgefressen. Und man merkt dann doch die CPU Last etc. wenn mehr geschrieben wird relativ deutlich.

    Was ist denn die aktuell beste Möglichkeit für Storage über mehrere Nodes übergreifend? Aktuell nutze ich 3 Hosts mit Ceph sowie dem 2,5 Gbit VLAN.

    Allerdings gibt's mehrere Punkte die mich was stören:

    - CloudVLAN Kosten

    - Failover IPv4/6 Kosten

    - Memory Overhead wegen Ceph


    wodurch ich im Endeffekt nicht merkbar günstiger im Gesamtkonzept unterwegs bin als beim roten H. Leider ist ja der Storagespace nicht wirklich brauchbar aufgrund der Traffic-Limitierung die sich auch nicht gegen Geld anheben lässt und mir das zu riskant ist "es dort drauf ankommen" zu lassen, da lau Support der Storage nicht mehr zureifbar wird. Aber man hat auch keine Ansicht wieiviel Traffic man schon verbraucht hat. Das Support-Ticket dazu hab ich nie wieder was gehört.