Das längste Thema

  • Das ist in der Tat kein Vertipper. Wir wollen virtuelle Server für weniger als einen Euro je Monat anbieten. Der Start ist noch diesen Sommer geplant.


    Viele Grüße


    Felix

    Na da sind wir doch mal gespannt wie die ausfallen. Wenn man da etwas mit anfangen kann dann hoffe ich das ich schnell genug bin. Den Hot Summer VPS habe ich leider verpasst. Bei dem Preis würde ich auch gerne Jahre im voraus bezahlen.

    9 von 10 Stimmen in meinem Kopf sagen ich bin nicht verrückt, die letzte summt ständig die Melodie von Tetris.

  • Zitat

    Na da sind wir doch mal gespannt wie die ausfallen.

    Wir hoffen gar nicht. ;)



    Die öffentliche BETA-Phase geht sehr bald los. Ich habe heute schon meine privaten Root-Server mit dem neuen Panel gemanaged :)


    Unser Designer möchte aber noch paar Feinheiten verbessern, bevor ich die URL verraten darf.



    VG Felix

  • Wenn das neue VCP mit den supergünstigen Servern zusammen kommen würde, dann könnte man doch mal wieder ein paar weniger ncLabs-Server spendieren :whistling:

    9 von 10 Stimmen in meinem Kopf sagen ich bin nicht verrückt, die letzte summt ständig die Melodie von Tetris.

  • Vertraust du deinen Daten echt einen Raid-Controller an? Ich finde Software-Raid alla ZFS wunderbar Rebuilds dauern nicht lange, ist Perfomant und joa Solaris :D


    Hat mich nun doch in den Fingern gejuckt. Habs einfach mal ausprobiert. Geniale Erfindung, dieses ZFS.


    Code
    root@eisenbart:/media/files# zpool list
    NAME      SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
    myraidz  21.8T   199G  21.6T         -     0%     0%  1.00x  ONLINE  -




    Durch die Cache SSD hält sich sogar der RAM verbrauch in Grenzen. :)
    Ohne Cache lag der bei ~30GB nur für das ZFS. Nun sind es ~6GB.


    Übrigens ist die Live Migration von virtuellen Platten in Proxmox super. Wechsel von Hardware Raid zu ZFS ohne Downtime. :)

  • Durch die Cache SSD hält sich sogar der RAM verbrauch in Grenzen. :)


    Hallo perryflynn,


    wie hast du denn unter Linux es so konfiguriert, dass du eine SSD-Platte als Cache nutzen kannst? Hast du da mal eine Beispielkonfiguration?


    Gruß
    Andreas

  • Der Guide hier erklärt das eigentlich ganz gut:
    ZFS Best Practices Guide - Siwiki


    Ist einfach ein one liner.


    Vorher habe ich der Platte eine neue GPT Partition Table verpasst.
    Partitionen musste ich nicht anlegen.


    Code
    parted /dev/disk/by-id/XXXXXXXXXXXXXXXXXXXXXXXXXX mklabel gpt


    Die Symlinks unter /dev/disk/by-id/ zu nutzen ist übrigens sehr ratsam, da die immer gleich sind. :)


    Code
    zpool add namedeszfspools cache XXXXXXXXXXXXXXXXXXXXXXXXXX
  • Hallo perryflynn,


    vielen Dank.


    Ich könnte mir auch gut vorstellen, wenn du anstelle RAID 5 RAID 10 nehmen und anstelle des SSD-Caches dein RAM (Page Cache) verwenden würdest, dass du noch mal einen extremen IO-Geschwindigkeitszuwachs bekommen würdest. Hast du zufälligerweise diese Variante auch schon mal ausprobiert?


    Gruß
    Andreas

  • Hey,


    ich hatte vorher ja im Raid 5 einen RAM Cache. So einen großen Unterscheid macht das nicht, da ich wegen fehlender USV einen direkten Write mache, um bei Stromausfall den Verlust so minimal wie möglich zu halten.


    Sprich SSD Cache ist der beste Kompromiss für mich.


    Ich lasse mich natürlich eines besseren belehren, falls ich da was durcheinander bringe. :)


    Raid 10 kommt schon allein deswegen nicht infrage, weil ich dann theoretisch "nur" 12 Terabyte Kapazität hätte.

  • Probiert habe ichs nicht, aber da steht im Guide folgendes:


    Zitat

    It is not possible to mirror or use raidz on cache devices, nor is it necessary. If a cache device fails, the data will simply be read from the main pool storage devices instead.


    ZFS Best Practices Guide - Siwiki


    Ist also ein Lese-Cache, und kein Schreibcache.
    Hab ich gestern auch überlesen...

  • Hallo perryflynn,


    ich hatte anfangs angenommen, dass du dein System erst einmal als ein sogenanntes Testlabor nutzt und noch vorher, bevor es dann richtig verwendet wird, mal ausprobieren möchtest, was so an IO-Performance eigentlich aus dem System herauszuholen ist.


    Eine USV, die nur für den Rechner gedacht ist, kostet heute gar nicht mehr soviel. Eventuell nur noch so ca. 40 bis 80 Euro. Kommt halt auf die Leistungsaufnahme an und wie lange das System noch nach dem Stromausfall weiterlaufen soll.


    Für meine USV APC Back-UPS Pro 1500VA BR1500G-GR mit 1500 VA / 865 Watt, die ca. 150 Watt für ca. 30 Min. hält, hatte ich noch vor gut 3 Jahren ca. 400 Euro bezahlt. Heute bekommt man diese USV auch schon für ca. 320 Euro.


    Eine USV würde ich auch heute noch einer SSD-Platte vorziehen, da eine USV auch unter anderem Spannungsschwankungen im Netz abfängt.


    Gruß
    Andreas

  • Muss zugeben, dass ich mich mit USVs halt auch noch nicht auseinander gesetzt habe. Eine USV überlege ich noch mal. Zum jetzigen Zeitpunkt halte ich die aber für unnötig.


    Habe das "kleine" Maschinchen nun 2 Wochen und habe in der Zeit zwei Hardware Raid Controller und nun ZFS ausprobiert.


    Aktuell laufen auf dem ZFS wieder drei VSs.


    Wenn es da irgendwas auszusetzen gibt, werde ich noch weitere Konfigurationen ausprobieren. Aktuell find ichs aber nice. Viel besser als alles, was ich bisher so daheim hatte.

  • Ich hab in meinem Labor dieses ZFS mit Nexenta realisiert, natürlich größerer Umfang 30 Platten etc. da ein ganzer Server dafür abgetreten ist juckt der RAM verbrauch nicht so sehr im Schnitt sind 29GB von 34GB als Cache genutzt. Der RAM ist so ausgelastet weil dort unter ZFS der großteil der Daten vorgehalten wird, da der Server iSCSI mittels MPIO (1IOP/Interface) über 4x1Gibts macht ist die Performance richtig angenehm bei 25 Maschinen. Startet man den Server neu oder stürtzt er ab baut er den RAM Cache wieder auf ebenfalls wie bei der SSD falls die Hops geht, aber in der Regel passiert sowas selten.


    ZFS Profitiert eben von viel RAM weil RAM first-level-cache (ARC) ist da RAM schnell ist und nur so hüpft vor iops, dann kommen die SSDs für Logs (ZIL) und second-level-caching (L2ARC) zu guter letzt die brech langsamen Festplatten (DSP).


    http://www.atmarkit.co.jp/fser…les/zfs/03/zfs03_01_l.gif


    [Blockierte Grafik: http://www.atmarkit.co.jp/fserver/articles/zfs/03/zfs03_01_l.gif]


    Noch dazu kommt der Vorteil das ZFS nur block devices nimmt, bedeutet es ist ein reines Software-Raid, falls man Hardware-Raid hat jede Platte in ein RAID-0 packen durch den RAID-Controller fährt man schneller da ZFS den Controller-(Cache) nutzt mit entsprechenden Treiber (unter Nexenta zumindest). Nach dem ich bei mir mein RAID-z3 aufgebaut hatten, haben sich altersbedingt zwei Platten verabschiedet, durch ZFS war der Rebuild von 5,4GB in 5h durch. Trotz des rebuild war die Performance trotzdem sehr akzeptabel.


    Fazit: ZFS ist cool! falls fragen da sind einfach stellen.


    Freut mich perry das du damit Freude hast :P


  • Hallo perryflynn,


    da ich eigentlich davon ausgegangen bin, dass ein echter RAID-Controler mit möglichst viel eigenem RAM dem ZFS überlegen sein sollte, habe ich eben mal auf dem bei Netcup gemieteten Root-Server RS6000 mit SAS-Platten deine Befehle ausgeführt und komme auf folgende Werte:



    Aufgrund deiner extrem guten Werte sieht es so aus, als sollte man sich mal ernsthaft mit dem ZFS ausgiebig beschäftigen.


    Gruß
    Andreas