Das längste Thema

  • Das Angebot (das mit den 12 Kernen) ist aber immernoch ein virtueller Server und kein echtes Blech?

    Das war der RS 8000 G9 SE, also immer noch ein vServer. Echtes Blech habe ich bisher noch in keiner Aktion gesehen, jedenfalls kann ich mich nicht erinnern.

  • Sodale, neue Aufgabe für meine alte Synology DS411, die ich vor etwas mehr als 4 Jahren gebraucht erstanden habe: Frisches DSM 6.2 drauf, die alten 4×2TB HDDs zu einem RAID5 zusammengefasst und fertig ist der neue Backupstorageserver. :love:


    Verkaufen lohnt sich bei dem alten Ding sowieso nicht, da kann es wenigstens noch einen guten Zweck als NFS & FTP Datengrab erfüllen. Security-Updates gibt es noch bis 2023 (12 Jahre nach Einführung!) und danach darf es gerne weiter laufen. Hängt eh schon jetzt in einem VLAN, das nicht raus telefonieren darf. ^^


    Da fragte ich mich, weshalb man sowas nimmt, wo man keinerlei dedizierte i/o und Netzwerlbandbreite hat, statt 1,5€ drauf zu legen und ein echtes Blech beim großen H zu nehmen.

    z.B. ECC-RAM wäre ein guter Grund (den gibt es in dieser Preisklasse bei dedizierter Hardware noch nicht)


    Und natürlich, dass man sich um RAID und allgemein die Hardware keine Gedanken machen muss.

    "Wer nur noch Enten sieht, hat die Kontrolle über seine Server verloren." (Netzentenfund)

  • z.B. ECC-RAM wäre ein guter Grund (den gibt es in dieser Preisklasse bei dedizierter Hardware noch nicht).

    Also ich hab neulich erst nen Server dort gesehen mit 2*480GB Datacenter SSD, 1G Standleitung, 64 GB DDR4 ECC RAM, 4 dedi Cores (8 threads) (2016er Xeon 8500er CPU-B) und das ganze für 35€ ;)

  • Nein, ich glaube ich meinte einen Anderen.

    Ich habe die letzten Tage von einem Server um die 39€ gelesen, mit 12Kernen, 64Gig und 2TB.

    Da fragte ich mich, weshalb man sowas nimmt, wo man keinerlei dedizierte i/o und Netzwerlbandbreite hat, statt 1,5€ drauf zu legen und ein echtes Blech beim großen H zu nehmen.

    Ja, das ist der RS8000 BF21. Den hab ich auch.


    Warum man das nimmt? Kann ich dir erklären :)

    Habe ebenfalls einen dedizierten für 46€ beim H. Da bin aber ein bisschen gelackmeiert wenn mal was hardwaretechnisches ausfällt. Echtes Blech ist nicht immer unbedingt besser. Auf meinem RS8000 muss ich mir keine Gedanken machen wenn mal ne Festplatte abraucht oder ein Netzteil den Geist aufgibt.


    Ich nutze den dedicated ausschließlich für Gameserver, für alles andere sind mir virtuelle Server wesentlich lieber. Ist einfach stressfreier :)


    (tbh: Ich war kurz davor den RS8000 im Rahmen der Zufriedenheitsgarantie zu kündigen, denn fast 40€ pro Monat mal 12 Monate sind immerhin fast 500€ im Jahr. Habe mich dann aber doch dazu entschieden zu behalten, denn in Benchmarks konnten die Server der Mitbewerber bei weitem nicht mithalten, außerdem könnte ich mein VLAN nicht benutzen, etc etc. Und der Preis ist wirklich in Ordnung. Ja, man könnte vergleichbare Specs bei einem dedizierten Server für ähnliches Geld bekommen, aber wie gesagt: das hat auch Nachteile. Da muss halt jeder abwägen ob einem jetzt Performance oder Bequemlichkeit wichtiger ist)

    Meine Minecraft-Plugins auf SpigotMC (Open Source): www.spigotmc.org/members/mfnalex.175238/#resources

    Discord: discord.jeff-media.com

  • Ich komme gerade ums Verrecken nicht auf den Fachbegriff, wenn ein Router Anfragen an die eigene IP-Adresse direkt wieder an sich sendet und nicht raus ins WAN.


    Beispiel: Anfrage an die eigene öffentliche IP aus dem lokalen Netz verlassen die Fritzbox nicht nach außen.


    Kann mir da jemand auf die Sprünge helfen? :)

    RS Brezn | VPS 500 G8 Plus | 2× VPS Karneval 2020 | VPS Pocket Admin | RS Cyber Quack | VPS 500 ARM


    Dieses Gebäude hat mir die Vorfahrt genommen! *hup*

  • Nein, ich glaube ich meinte einen Anderen.

    Ich habe die letzten Tage von einem Server um die 39€ gelesen, mit 12Kernen, 64Gig und 2TB.

    Da fragte ich mich, weshalb man sowas nimmt, wo man keinerlei dedizierte i/o und Netzwerlbandbreite hat, statt 1,5€ drauf zu legen und ein echtes Blech beim großen H zu nehmen.

    Also komm, das ist doch wohl offensichtlich Schwachsinn. Nenne mir mal bitte ein Angebot zu dem Preis inkl. ECC, redundantem Netzteil, Netzwerkkarte, guter Netzwerkkarte (kein onboard, siehe iNIC) und nicht 'ner CPU von 2016, sondern einem aktuellen EPYC (die, thema Blech, unter 16 kernen AFAIK nicht zu haben sind, normalerweise fängst du bei 16x2 dualsocket an für richtige Kisten). Und dann bitte noch RAID 1+0 mit Monitoring, nicht software RAID 1 mit Austausch auf Zuruf - und solange fährst du dann auf RAID 0.

    Rohe Leistung wird ein ryzen 5 3600 wie er in 'ner 45€ kiste dort steckt immer mehr haben, aber ansonsten finde ich das einen blödsinnigen Vergleich. Gerade wenn die Kiste mal für 365 tage Uptime laufen soll ohne dass mir i-wann das ZFS mitteilt dass mein RAM defekt ist.

    H baut ja keinen Müll ein (siehe ?v=F0KRLaw8Di8 an dieser stelle leider kein Verlinkung), aber es ist einfach ein schwerer Vergleich für echte Server und nicht Spielkisten. Und sobald ich da nachts um 3 Sitze wenn es mal down geht ist das keine Spielkiste mehr sondern Arbeit - eine Spielkiste darf auch mal für 'ne Woche down sein wenn gerade keine Zeit ist. Sonst muss ich entsprechend mehr zahlen, aber dann sind wir bei 80€/Monat Kisten (oder mehreren Redundant / leuten die das für die Arbeit auch gegen Bezahlung betreiben -> warten).

  • ECC-RAM wäre ein guter Grund (den gibt es in dieser Preisklasse bei dedizierter Hardware noch nicht)

    Mit ECC wären es 5,99€ mehr. Obwohl ich in 45 Berufs und Hobbyjahren genau 0 mal eine Datenkorruption aufgrund Ramfehler hatte.

    Dass ich ein Raid selbst unter Kontrolle habe, sehe ich eher als Vorteil.


    Da bin aber ein bisschen gelackmeiert wenn mal was hardwaretechnisches ausfällt. Echtes Blech ist nicht immer unbedingt besser. Auf meinem RS8000 muss ich mir keine Gedanken machen wenn mal ne Festplatte abraucht oder ein Netzteil den Geist aufgibt.

    Inwiefern? Ein Backup zurückspielen musst du hier bei nem Hardwareausfall auch.

    Und der Hardwaretausch ist ja eine Sache von Minuten.


    Da muss halt jeder abwägen ob einem jetzt Performance oder Bequemlichkeit wichtiger ist

    Das ist natürlich ein Grund.

  • ein Bit fällt schnell mal um, und was aktuelle Festplatten angeht, ist es mehr ein Spock-Geschätze als ein echtes Datenlesen ;)

    ohne der doch sehr ausgereiften ECC-Logik der Festplaten würdest Deine Daten nie wieder sehen,

    und f. Fans von Festplattenverschlüsselung - ein /dev/null - wäre ohne ECC bei Festplatten die bessere Wahl Daten abzulegen;:D

    Grüße / Greetings

    Walter H.


    RS, VPS, Webhosting - was man halt so braucht;)

  • Ach Holger, wir reden doch von RAM...

    :)

    Ja Assissi wir wissen das, und genau da fallen Bits noch viel schneller um ;)

    es gilt doch die Monk'sche Relation: VW-Käfer : Porsche = HDD : RAM

    soll heißen, ein Porsche kracht schneller gegen den Baum als ein VW-Käfer :D

    Grüße / Greetings

    Walter H.


    RS, VPS, Webhosting - was man halt so braucht;)

  • Ich habe ja schon öfter gelesen, dass zfs ohne ECC-RAM nicht empfehlenswert ist.

    Wie ist es umgekehrt? ECC-RAM mit ext4 vs.ECC-RAM mit zfs?


    Grund der Frage: Auch ich habe ein Produktivblech bei H. ohne ECC und spiele mit dem Gedanken, beim nächsten Neuaufsetzen von Ubuntu damit auf den "Black Tornado" umzusteigen und hätte gerne vorher Klarheit über das geeignetste Filesystem. (ext4, wie bisher oder doch zfs?)

  • H baut ja keinen Müll ein (siehe ?v=F0KRLaw8Di8 an dieser stelle leider kein Verlinkung), aber es ist einfach ein schwerer Vergleich für echte Server und nicht Spielkisten. Und sobald ich da nachts um 3 Sitze wenn es mal down geht ist das keine Spielkiste mehr sondern Arbeit - eine Spielkiste darf auch mal für 'ne Woche down sein wenn gerade keine Zeit ist. Sonst muss ich entsprechend mehr zahlen, aber dann sind wir bei 80€/Monat Kisten (oder mehreren Redundant / leuten die das für die Arbeit auch gegen Bezahlung betreiben -> warten).

    Sehe ich ähnlich. Bei mir ist es hauptsächlich Hobby, auch wenn man das mit 3er RS4000 Cluster, diverse RS/VPS 1000-2000 wohl schwierig verkaufen kann. Theoretisch würde es auch ein einzelner großer Server in Blech für günstig tun, aber halt ohne Failover etc.


    Mit den RS4000, Failover IPv4/6, Storage Replikation und Keepalived was automatisch die IPs hin und herschiebt lässt es sich angenehm leben und nachts ruhig schlafen, falls wirklich mal einer der RS ausfällt. Mit Ansible und Co. lässt sich der Fuhrwerk zudem komfortabel verwalten und Icinga2 weiß schon vor Netcup dass ne Node ausgefallen ist oder ein Dienst gerade nicht funktioniert, im DNS was hakt etc.


    Ich probiere gerne mal Projekte aus und wenn die dann ne Datenbank, Cache + Applikationsstorage von paar 100MB oder so nur brauchen, stoße ich entweder an das Limit nur X Volumes pro Node anbinden zu können, oder muss große Volumes nehmen die kaum genutzt sind. Bei aktuell knapp 30 Storagevolumen kommt da dann was zusammen.


    Zusätzlich hab ich noch nen VPS200 der einzig dazu da ist, dass die GitlabCI den 1mal in der Woche komplett durchprovisioniert um zu prüfen dass die Ansible Rollen noch alle aktuell und korrekt sind.

  • Ich habe ja schon öfter gelesen, dass zfs ohne ECC-RAM nicht empfehlenswert ist.

    Wie ist es umgekehrt? ECC-RAM mit ext4 vs.ECC-RAM mit zfs?

    wenn Du ECC-RAM hast, und hier NTFS, ext4, ... und ZFS vergleichst, dann hast hier die Garantie, dass der Inhalt auf die Platte geschrieben wird,

    ident mit dem vom RAM ist, aber ob der Inhalt auch dann, wenn er gelesen wird, ident ist mit dem, der zuvor geschrieben wurde, braucht es ZFS;


    wobei es gibt ja noch etwas: wie sieht es denn mit einem Blackout und diversen Filesystemen aus; welches ist so gehandelt,

    dass es zwar zu Verlusten dahingehend kommen kann, dass Caches im RAM nicht mehr geschrieben werden konnten,

    aber das Filesystem als solches intakt bleibt;

    Grüße / Greetings

    Walter H.


    RS, VPS, Webhosting - was man halt so braucht;)

  • Grund der Frage: Auch ich habe ein Produktivblech bei H. ohne ECC und spiele mit dem Gedanken, beim nächsten Neuaufsetzen von Ubuntu damit auf den "Black Tornado" umzusteigen und hätte gerne vorher Klarheit über das geeignetste Filesystem. (ext4, wie bisher oder doch zfs?)

    OK. Ich glaube das hat sich erstmal erledigt.

    Habe mich gerade mal ein wenig zu zfs kundig gemacht (Hab das noch nie verwendet) und das scheint ja nicht trivial zu sein.

    Da lasse ich erstmal die Finger von und bleibe bei ext4. ;)

  • Ich habe ja schon öfter gelesen, dass zfs ohne ECC-RAM nicht empfehlenswert ist.

    Fürs Protokoll: Das ist überbewertet*. ECC-RAM ist immer empfehlenswert, aber es geht auch ohne. Auf mehreren NUC/SBC läuft ZFS ohne ECC-RAM seit Jahren einwandfrei. Die Argumentation ist, dass ZFS intern mehrere Puffer verwendet, sodass die Gefahr von Bitfehlern beim Umkopieren größer sei als bei anderen Dateisystemen. Um dieses Risiko zu verringern, gibt es ein auch Flag, welches ich auf obigen Rechnern verwende:

    Code: /etc/modprobe.d/zfs.conf
    # see https://www.csparks.com/BootFedoraZFS/index.md
    # enable the unsupported ZFS_DEBUG_MODIFY flag which is supposed to mitigate (but not eliminate) the risk of using ordinary memory instead of ECC memory
    options zfs zfs_flags=0x10

    *analog zu der "Albtraumsituation", dass ein existierender HW-RAID-Controller nicht im IT(=Pass-through)-Modus betrieben werden kann (vgl. VPS-/RS-basierte Installationen)

    VServer IOPS Comparison Sheet: https://docs.google.com/spreadsheets/d/1w38zM0Bwbd4VdDCQoi1buo2I-zpwg8e0wVzFGSPh3iE/edit?usp=sharing