Das längste Thema

  • Ok, also noch einmal widerstehen um 17 Uhr, nur noch einmal... :D

    Ich habe ein Problem. Mit wem kann ich darüber reden? ;(


    Bildschirmfoto_2018-12-12_17-05-12.png


    Dedizierte CPU-Kerne werden überbewertet! 8o Wenn es sich doch nicht lohnt, auch egal. Den RS1000 kann ich bis Ende Jänner kündigen, das ist genug Zeit zum Testen vom VPS 1000 Plus… 8)

    "Wer nur noch Enten sieht, hat die Kontrolle über seine Server verloren." (Netzentenfund)

  • Ich habe ein Problem. Mit wem kann ich darüber reden? ;(


    Bildschirmfoto_2018-12-12_17-05-12.png


    Dedizierte CPU-Kerne werden überbewertet! 8o Wenn es sich doch nicht lohnt, auch egal. Den RS1000 kann ich bis Ende Jänner kündigen, das ist genug Zeit zum Testen vom VPS 1000 Plus… 8)

    Welcome to the dark side :P

    Bei mir ersetzen sie ja auch zwei der drei baugleichen RS (DB-Cluster + kleines Ceph-Cluster); so als "Test"

  • Wie hast Du den Ceph-Cluster aufgesetzt? Ich würde das auch gerne mal testen.

    Ich hatte hier mal drei große Storage-Server mit mäßigem Ergebnis in einem ceph-cluster, hab dann zwei ausgetauscht gegen dedizierte bei einem anderen Anbieter. Das Projekt dahinter ist aber nicht so geworden wie gedacht, sodass ich die bestehenden Block-Images jetzt auf deutlich kleinerer Hardware betreibe bisher 3xRS mit 2 CPU, 6GB RAM und 640 GB (?) SAS.


    Aufgesetzt weiß ich nicht mehr. Das war damals (glaube jewel) für mich viel Gefrickel, weil dieses ceph-deploy nicht so wollte wie ich. Irgendwann hatte ich meine MONs und hab seit jeher nie wieder mit ceph-deploy gearbeitet und die OSDs dann händisch eingefügt etc.


    Ich habe das aber irgendwie nie mit zufriedenstellendem Ergebnis zum Laufen bekommen... Bin jetzt aktuell aber dran gebunden den Cluster weiter zu betreiben, da der Aufwand zur Migration der dortigen Daten vermutlich größer als einfach den Mini-Cluster weiter zu betreiben bis eines Tages genug Kunden weg sind, sodass ich den abschalten kann :D

  • Okay, danke für die Info. Ich schwanke für den Test noch zwischen ceph-ansible und Proxmox. Ich habe schon gelesen, dass Ceph mit einem Gigabit Netzwerkbandbreite nicht so toll läuft. Ich wills aber mal ausprobiert haben.

  • Okay, danke für die Info. Ich schwanke für den Test noch zwischen ceph-ansible und Proxmox. Ich habe schon gelesen, dass Ceph mit einem Gigabit Netzwerkbandbreite nicht so toll läuft. Ich wills aber mal ausprobiert haben.

    Ceph funktioniert im Grunde nur auf physischer Hardware gut, wenn man auch physische Festplatten ansprechen kann. Dazu kommt, dass es auch wirklich erst ab einer gewissen Größe ausreichend Performance liefert. Auf virtuellen Systemen mit nur einer Disk, bei der sich OS, Dienste + OSDs die Performance teilen müssen, kann man es als PoC gerne ausprobieren. Praktischen Nutzen hat so ein Setup aber nicht. Da ich schon einige Ceph Cluster (teilweise bis zu 2PB) geplant und gebaut habe, kann ich da durchaus aus Erfahrung sprechen, dass das auf virtuellen Systemen nicht wirklich zufriedendstellend läuft. Selbst dann sollten es schon 10GBit/s Netzwerke sein + getrennte Netze für das Public und das Cluster Netz. Dann würde ich auch empfehlen, mindestens 5 Nodes zu nutzen. Bei einer Minimal Konfiguration von 3 Nodes verliert man sonst 33% Brutto Kapazität, falls mal ein Node ausfallen oder einfach nur weg sein sollte. Das Rebalance killt dir in diesem Fall jeden Cluster.


    Versteht mich nicht falsch, Ceph ist eine verdammt coole Storage Lösung :) Aber um das wirklich produktiv einzusetzen, braucht es schon etwas mehr als ein paar virtuelle Server. Sonst hat man damit einfach keinen Spaß und ärgert sich am Ende nur über die schlechte Performance.

  • Ceph funktioniert im Grunde nur auf physischer Hardware gut, wenn man auch physische Festplatten ansprechen kann. Dazu kommt, dass es auch wirklich erst ab einer gewissen Größe ausreichend Performance liefert. Auf virtuellen Systemen mit nur einer Disk, bei der sich OS, Dienste + OSDs die Performance teilen müssen, kann man es als PoC gerne ausprobieren. Praktischen Nutzen hat so ein Setup aber nicht. Da ich schon einige Ceph Cluster (teilweise bis zu 2PB) geplant und gebaut habe, kann ich da durchaus aus Erfahrung sprechen, dass das auf virtuellen Systemen nicht wirklich zufriedendstellend läuft. Selbst dann sollten es schon 10GBit/s Netzwerke sein + getrennte Netze für das Public und das Cluster Netz. Dann würde ich auch empfehlen, mindestens 5 Nodes zu nutzen. Bei einer Minimal Konfiguration von 3 Nodes verliert man sonst 33% Brutto Kapazität, falls mal ein Node ausfallen oder einfach nur weg sein sollte. Das Rebalance killt dir in diesem Fall jeden Cluster.


    Versteht mich nicht falsch, Ceph ist eine verdammt coole Storage Lösung :) Aber um das wirklich produktiv einzusetzen, braucht es schon etwas mehr als ein paar virtuelle Server. Sonst hat man damit einfach keinen Spaß und ärgert sich am Ende nur über die schlechte Performance.

    Ich kann das zu 100% so unterschreiben. Genau das sind auch meine Learnings

  • Das Problem ist, dass ich den Speicherplatz eher auf dem Xmas 2016 System brauchen könnte, den ich aber definitiv nicht hergeben werde. Dafür sind die 2 dedizierten CPU-Cores auf meinem RS1000 leider notwendig, den ich nur ungern gegen 4 vCores (vom VPS 1000 Plus) bzw. einen dedizierten Kern (vom Xmas 2016) eintauschen würde.


    Somit bleibt es bei meinen BF-Vorsätzen. Ihr dürft euch austoben! 8o

    Genau so ist es bei mir auch :)