Tempo der SSD-Root-Server

  • Hallo Felix,


    das ist doch schon mal eine Ansage mit der ich etwas anfangen kann. Und deckt sich ja auch mit meinem getesteten/vorhandenen Netcup RS 2000 SSD G7 SE. :)


    Nur noch zwei Fragen: Angenommen die Gen 8 wird im Laufe dieses Jahres noch erscheinen und ich nehme nun den RS 8000 G7 SE.


    1. Ist ein Upgrade mit gleichbleibender IP auf ein neues Gen 8 Host-System dann verfügbar? Bzw. Umzug. Geringfügige Ausfallzeiten und Kosten (?) sind klar.

    2. Wenn ich mit dem RS 8K einen Jahresvertrag abschließe, wäre ein Upgrade auf Gen 8 auch innerhalb der Laufzeit möglich oder erst nach den 12 Monaten? Natürlich nicht auf ein kleineres Paket.


    Zusatzfrage: Wären auch gegen Aufpreis mehr als 240 GB SSD-Storage möglich? (Innerhalb des KVM-Systems.)

  • Hallo nyx,



    das freut mich zu hören!


    Gerne beantworte ich Ihre zusätzlichen Fragen:


    Upgrades über Generationen hinweg sind leider nicht möglich. Zum einen benötigen wir eine gewisse Mindestnutzungsdauer der Hardware, was wir je nach Vertragsmodell durch Mindestvertragslaufzeiten sicher stellen, zum anderen ist ein Upgrade bei Mitnahme der IP-Adresse technisch bedingt nicht möglich. Die Generation 8 könnte ja z.B. auf CPUs von AMD laufen ;)


    Die SSD-Festplatten bei der aktuellen Root-Server Generation sind bewusst klein gehalten um eine besonders gute Performance zu erreichen. Updates des Speicherplatzes sind nur über ein Upgrade auf einen größeren Tarif realisierbar. Denn es bringt uns kein Node etwas, dessen Speicherplatz komplett belegt ist, andere Ressourcen wie CPU-Kerne und RAM noch frei sind. Die Ressourcen müssen daher mit in den Preis einkalkuliert werden, auch wenn sie nicht genutzt werden. Trotzdem ist das noch deutlich günstiger als einen vergleichbaren dedizierten Server zu buchen.


    Wenn Sie nicht alle Daten auf schnellen SSDs bereitstellen müssen, lohnt es sich für Sie eventuell einige Daten auf den Storagespace auszulagern: https://www.netcup.de/vserver/storagespace.php So können Sie beide Vorteile in einem System kombinieren: Schneller SSD-Speicherplatz und sehr kostengünstiger Storagespace.



    Mit freundlichen Grüßen


    Felix Preuß

  • Was mich aber verblüfft, dass SSD deutlich langsamer ist - eigentlich hätte ich das anders rum erwartet ?
    Hier zum Vgl. ein SATA bzw SAS -System (beides bei netcup)

    Rootserver M SATA:
    hdparm -tT --direct /dev/vda2
    /dev/vda2:
    Timing O_DIRECT cached reads: 1346 MB in 2.00 seconds = 672.78 MB/sec
    Timing O_DIRECT disk reads: 258 MB in 3.03 seconds = 85.17 MB/sec

    RS X-Mas2016 SAS:
    hdparm -tT --direct /dev/sda3
    /dev/sda3:
    Timing O_DIRECT cached reads: 1748 MB in 2.00 seconds = 873.52 MB/sec
    Timing O_DIRECT disk reads: 264 MB in 3.02 seconds = 87.45 MB/sec

  • Dank dir für den Tipp. Das System läuft allerdings bereits unter Virtio. :)


    Hattest du auch mal andere Treiber ausprobiert? Denn auf meinem Root-Server RS 6000 G7 SE, den ich erst ein halbes Jahr habe, hatte ich auch so ein Problem gehabt. Seitdem ich aber den bisherigen Treiber von SCSI auf SATA geändert habe, sehen die Werte schon besser aus. Siehe folgenden Test:


    dd if=/dev/zero bs=1M count=10000 of=output oflag=direct

    10485760000 Bytes (10 GB) kopiert, 74,2203 s, 141 MB/s


    dd if=/dev/zero bs=1M count=10000 of=output oflag=direct

    10485760000 Bytes (10 GB) kopiert, 68,7632 s, 152 MB/s


    dd if=/dev/zero bs=1M count=10000 of=output oflag=direct

    10485760000 Bytes (10 GB) kopiert, 73,0885 s, 143 MB/s


    Bessere Werte gerade zu Stoßzeiten wird er auch nicht bringen können. Denn man muß bei einem virtuellen Server immer daran denken, dass man sich das Wirt-System mit einer unbekannten Anzahl weiterer Kunden teilt.


    Ein Test auf meiner virtuellen Maschine auf meinem dedizierten Server beim Fremdanbieter, den ich auch selber administriere und exklusiv nutze, sieht wie folgt aus:


    dd if=/dev/zero bs=1M count=10000 of=output oflag=direct

    10485760000 Bytes (10 GB) kopiert, 19,6334 s, 534 MB/s


    dd if=/dev/zero bs=1M count=10000 of=output oflag=direct

    10224664576 Bytes (10 GB) kopiert, 17,069376 s, 599 MB/s


    dd if=/dev/zero bs=1M count=10000 of=output oflag=direct

    10485760000 Bytes (10 GB) kopiert, 17,4284 s, 602 MB/s


    Nebenbemerkung:

    Beide Test wurden unter CentOS 7 mit gleicher Konfiguration durchgeführt.

  • Mal so eine Frage, ihr setzt doch nur Hardware-Raid für die Verbünde ein oder? Warum macht ihr sowas noch? Es gibt doch wesentlich effizientere Lösungen die mehr Performance Spucken, als das was ich jetzt hier so lese und sehe. Klar ist diese Multiuser Geschichte ein Gesichtspunkt. Mir ist auch der Punkt fremd das kleinere SSDs effizienter seinen als größer. Klar kann ich drölftel SSDs in ein Verbund schmeissen wird halt teuer. Das einzige was ich heute schnell nenne sind Samsung 960 Pro SSDs mit 3,5GB/s lesen und 2,1GB/s schreiben. Vermutlich wird man der Fragerei wieder mit Geschäftsgeheimnis entgehen und damit hat es sich ja dann für eine Seite prima erledigt.


    Das soll kein Angriff darstellen oder der gleichen, jedoch frage ich mich langsam wo netcup hin will. Die Angebote werden für mich immer unbrauchbarer weil so viel klimbim dabei ist der es teuer macht und machmal muss ich suchen um einfache Informationen zu bekommen (z.B. Bandbreite bei einem Storageserver). Wenn es nur dazu dient um von der Masse abzuheben dann glückwunsch. Diese Preis lock Strategie auf der Startseite hält mich immer wieder aufs neue davon ab hier noch was zu bestellen. Entweder sage ich Transparent was das Ding kostet auf ein Monat gesehen und alle dazugehörigen Features oder lass es echt bleiben. Wer macht sich schon um sowas Gedanken?

  • Guten Morgen,



    haben Sie sich einmal die Spezifikationen der Samsung 960 Pro Serie durchgelesen? Die SSDs sind für Desktop-PCs gedacht. Wir betreiben Server. Bei dem was auf unseren Nodes geschrieben wird, wären die SSDs nach wenigen Monaten hinüber und alle Daten futsch. Darüber hinaus liefern sie bei weitem nicht den Durchsatz, den wir benötigen. Betreiben Sie eine solche Festplatte in einem Server der viele Schreibzugriffe verarbeiten muss?


    Zitat


    jedoch frage ich mich langsam wo netcup hin will


    Bei unseren Root-Servern ist unseren Mission das Beste aus virtuellen und dedizierten Servern zu vereinen um langfristig dedizierte Server überflüssig zu machen. Bei den VPS geht es z.B. in erster Linie um einen günstigen Preis. Aber auch hier setzen wir sicherlich keine Samsung 960 Pro ein.


    Zitat

    Entweder sage ich Transparent was das Ding kostet auf ein Monat gesehen
    und alle dazugehörigen Features oder lass es echt bleiben.

    Tun wir das nicht? Alle möglichen Features die gebucht werden können (Beispiel eine Failover-IP-Adresse) zusammen auf einen Schlag mit dem Monatspreis eines Produktes zu nennen, halte ich für schwierig. Alle zusätzlich buchbaren Optionen führen wir in einer separaten Tabelle auf. Wir freuen uns jedoch über jeden ernsten und sinnvollen Verbesserungsvorschlag diesbezüglich.



    Mit freundlichen Grüßen


    Felix Preuß

  • Bald werden zwei dieser Modelle seine Dienste in einem Server verrichten. Die Schreiblast ist natürlich wie auch hier variabel. Ich kann gerne eine Erfahrungsbericht verfassen wenn es soweit ist.


    Grundsätzlich würde ich bei vielen Schreibzugriffen auf ein RAM gecachtes System mit vielen 10k SAS spindel setzen (weil langlebiger als SSD zur Zeit, meine Meinung). Wenn man SSDs mit viel Schreibzugriff haben möchte, sollte man das Konzept von NetApp Solidfire aufgreifen und alles erst in einen NVRAM schreiben, deduplizieren und dann auf die SSDs schieben. Damit erreicht man gute Haltedauer und Performance. Wobei die Server ja im Regelfall sowie so meist nach fünf Jahren wieder rausfliegen.


    Wenn ich ehrlich sein soll gibt es für mich keine Wahnsinnigen Unterschiede zwischen Consumer und Business SSDs ausser das sie Teuerer sind und das meist nur durch weniger Performance und längere Garantie begründet ist. Reichen ihnen 400TBW nicht aus für die Laufzeit von fünf Jahren, die meist ein Server im Einsatz ist? Was nutzt Netcup für SSDs damit sie länger als paar Monate halten? Wie hoch ist bei denen die Ausfallquote?


    Wenn ich mehrere dieser NVMe SSDs im RAID Verbund nutze und mir eine Abraucht sind ja alle Daten noch da? Backup oder Replikation sollte man ja von Haus aus machen, selbst wenn es nicht zwingend mein Verwantwortungsbereich oder ein Produktfeature ist.


    Mit wären sinnvollere Hardwareausstatungen lieber als der Billigste Preis im Segment. Ich weiß ja nicht wie sie das sehen aber wenn ich mir eine VM mit 8 Kernen und 48GB RAM miete was habe ich davon? Da erscheint mir der Dedizierte Server mit der Option mehrere Server darauf betreiben zu können Sinnvoller. (VMX hin oder her das ist definitiv nicht das wahre)


    Ich verlange ja keine Zusatzoptionen sondern das die Server zum Monatspreis beworben werden, damit ich sie auch mit anderen Bewerben auf einen Blick vergleichen kann. Zudem fände ich es cool wenn dabei steht wie viel Bandbreite verfügbar ist.


    Zu dem habe ich eine andere Art Frage, wird für den DDoS Schutz eigentlich ein gesonderter Vertrag mit dem Kunden geschlossen oder ist dieser bereits bei allen Verträgen ein Bestandteil?

  • Zu dem habe ich eine andere Art Frage, wird für den DDoS Schutz eigentlich ein gesonderter Vertrag mit dem Kunden geschlossen oder ist dieser bereits bei allen Verträgen ein Bestandteil?

    afaik bei den aktuellen Root Server Produkten bis 5 Gbit/s inklusive. Alles was darüber liegt, braucht eine gesonderte Vereinbarung oder alternativ kommt wahrscheinlich klassisches Nullrouting zum Tragen. Man korrigiere mich, wenn ich falsch liege.

    "Wer nur noch Enten sieht, hat die Kontrolle über seine Server verloren." (Netzentenfund)

  • Ja das weiß ich, aber ich meine ob ein Vertrag(spunkt) besteht, in dem geregelt ist, das mein Traffic vom DDoS-System von Netcup analysiert bzw. verarbeitet werden darf? Oder existiert für sowas keine Rechtsgrundlage?

  • Im Angebot steht der DDoS-Filter, wenn dann der Vertrag zustande kommt, kann von konkludentem Verhalten gesprochen werden.

    Warum sonst sollte man netcup das Angebot auf der Website unterbreiten, wenn man dann gar nicht will, dass der Filter eingesetzt wird?

  • Kannst du mir solch ein Angebot zeigen wo explizit das so drin steht?


    Sorry wenn ich jetzt so Misstrauisch bin, aber das will ich schon wissen. Wenn ich gezwungen werde meinen Traffic analysieren lassen zu müssen. Dann gibt es für mich keinen weiteren Grund hier zu bleiben.

  • Zu dem habe ich eine andere Art Frage, wird für den DDoS Schutz eigentlich ein gesonderter Vertrag mit dem Kunden geschlossen oder ist dieser bereits bei allen Verträgen ein Bestandteil?

    Ist immer dabei. Bei mir wurde dieser schon aktiv, obwohl kein gesonderter Vertrag abgeschlossen wurde.

  • Ich glaube jetzt nicht, dass dafür der Traffic an sich analysiert wird sondern vielmehr die Traffic"rate". Wenn auf einmal innerhalb von Sekunden unnatürlich hohe Zugriffsraten auf der Seite oder denn Server zu verzeichnen sind. Ich kann mir aber jetzt nicht vorstellen das die Pakete vom Inhalt her analysiert werden.

    Und es ist dnicht ch für Dich von Vorteil wenn Du unter so einem Angriff leidest und der Filter greift oder sehe ich das falsch?

  • Guten Morgen,


    der DDoS Filter ist unabwählbar in jedem unserer (v/Root/Managed/...)Server-Verträge verankert. Grund hierfür ist unser Anspruch, sowohl Sie als Kunden, aber auch alle andere Kunden und auch unsere generelle Infrastruktur vor Angriffen zu schützen.


    Alle Informationen zum diesem können hier gefunden werden: https://www.netcup.de/ueber-netcup/ddos-schutz-filter.php


    Dazu möchte ich jedoch anmerken, dass wir den Datenschutz sehr ernst nehmen, und keine Analyse der eigentlichen "Paketinhalte" vornehmen.

    Ausgedrückt im OSI-Modell: Wir greifen bei der Analyse sowie Filterung niemals auf die Anwendungsschicht zu, sondern maximal auf die Transportschicht.


    Auf die Transportschicht müssen wir jedoch für eine möglichst verlustfreie Filterung zugreifen. Schließlich macht es Sinn, bei einem Angriff auf Port 123 UDP, nur diesen, und nicht den gesamten Traffic, zu filtern.


    Diese Daten werden zudem ausschließlich zu diesem Zweck erfasst sowie analysiert und auch recht schnell wieder gelöscht.

  • Wenn ich ehrlich sein soll gibt es für mich keine Wahnsinnigen Unterschiede zwischen Consumer und Business SSDs ausser das sie Teuerer sind und das meist nur durch weniger Performance und längere Garantie begründet ist. Reichen ihnen 400TBW nicht aus für die Laufzeit von fünf Jahren, die meist ein Server im Einsatz ist? Was nutzt Netcup für SSDs damit sie länger als paar Monate halten? Wie hoch ist bei denen die Ausfallquote?


    Wenn ich mehrere dieser NVMe SSDs im RAID Verbund nutze und mir eine Abraucht sind ja alle Daten noch da? Backup oder Replikation sollte man ja von Haus aus machen, selbst wenn es nicht zwingend mein Verwantwortungsbereich oder ein Produktfeature ist.


    Ich möchte das nur kurz aufgreifen: Bei den SSD (sowohl SATA als auch PCIe) gibt es schon deutliche Unterschiede zwischen Consumer und Datacenter. Diese liegen aber vor allem in den zusätzlich "mitgelieferten Sektoren". Die DC-Versionen haben teilweise bis zu 50% mehr Speicher verbaut, um direkt bei den Schäden auszuweichen. Um das mal so ganz grob zu sagen. Dazu kommt, dass sie ein etwas besseres Thermal Management haben - selbst wenn es die Software nicht mitbringt. Wenn du beispielsweise sehr häufige dieselbe Datei abrufst wird dieser Sektor im Speicher sehr heiß und kann schneller zu Schäden führen. Hier greift zB. dann, das dieser öfters mal verlegt wird. Bspw. bei VMware Server wird so etwas auch Software-seitig bereits bedacht und gemanaged. Dafür zahlst du halt auch.


    Bei den NVMe "SSD" muss man stark zwischen M.2 und U.2 unterscheiden. Die von dir angesprochenen Lese-/Schreibraten sind nur mit NVMe (also quasi SSD via PCIe anstatt SATA) zu erreichen - und auch nur mit den neuesten Modellen. Im M.2-Format sind hier Samsung SM951 und SM961 üblich. Teilweise wird auch Toshiba XG3 eingesetzt, was aber eher etwas älter ist. Der riesige Vorteil beim M.2-Format ist natürlich die Baugröße. Der Große Nachteil nennt sich Thermal Throttling. Die genannten M.2-Riegel sind dabei schon nicht mehr die typischen Consumer-Modelle. (Übrigens von mir auch bereits umfangreich getestet, auch im Vergleich zu Consumer-Modellen.)


    Die "echten" Datacenter-Modelle bzw. Baureihen findest du im U.2-Format. Sprich, NVMe via PCIe-Steckplatz, anstatt via Mini-Riegel im M.2-Steckplatz. Hier geht's vor allem um Kühlung. Beide werden via PCIe x4 angebunden, das spielt hier nicht die ausschlaggebende Rolle.


    Die Haltbarkeit zwischen NVMe und SSD hier zu vergleichen ist einfach nur Blödsinn. Deswegen kann ich dabei Felix auch absolut kein Recht geben. Doch der große Unterschied liegt aktuell leider noch in der Sinnhaftigkeit. Als NVMe-Network-Storage gibt es bisher nur sehr wenige Geräte, die diese Performance auch am Ende an die Nodes weitergeben können. Selbst bei Hardware-RAID wird der Markt schon ziemlich dünn und recht kostspielig. Auf Masse gesehen (die Netcup nun eindeutig anspricht, selbst wenn am Ende bei Paketen vllt. nur noch 10 GB Storage dabei wären - ja, eine bewusste Provokation) derzeit vermutlich noch zu teuer, wenngleich auch unglaublich schnell.


    Mir persönlich ist aktuell auch nur ein anderer Hoster bekannt, der NVMe offiziell und direkt von der Stange anbietet. Als Software-RAID direkt, als Hardware-RAID gegen Aufpreis. Preislich nicht monatlich mit den KVM-Paketen von Netcup vergleichbar, dafür aber auch mit ab 500 GB Storage an Bord.


    Genau das sehe ich aber auch als das große Problem derzeit an. Jeder noch so witzige Hoster schreibt "SSD" an seine Produkte. Was drin steckt was niemand so genau und selbst wenn, was heißt das schon? Siehe der doch sehr deutlichen Performance-Unterschiede selbst hier bei Netcup, die ich eingangs dieses Themas postete. Und hier sprechen wir von erheblichen Unterschieden von über 800%.


    Felix schrieb innerhalb dieses Themas, dass er 400 MB/s für G7 SSD garantiere würde. Das wäre doch etwas, was Netcuo in der Öffentlichkeit von anderen Hostern abheben würde - selbst wenn es nur im Tagesmittel wäre. Dann könnte man vllt. auch etwas mehr noch von den kleinen Storages "on Board" absehen. ;)

  • Kannst du mir solch ein Angebot zeigen wo explizit das so drin steht?


    Sorry wenn ich jetzt so Misstrauisch bin, aber das will ich schon wissen. Wenn ich gezwungen werde meinen Traffic analysieren lassen zu müssen. Dann gibt es für mich keinen weiteren Grund hier zu bleiben.

    https://www.netcup.de/vserver/#features


    Es ist viel zu rechenintensiv überall in die Pakete zu schauen und die Latenzen gering zu halten bzw alles auszuleiten und wegzuspeichern.
    Außerdem muss jeder Router zwischen Ziel und Sender in die Pakete schauen.
    Verschlüssel doch einfach, dann bist du auf der sicheren Seite, anstatt - wo auch immer - darauf vertrauen zu müssen, dass entweder nicht gefiltert wird, oder bestimmte Regeln eingehalten werden. Auch dann wird noch analysiert, aber halt nur soweit das die Verschlüsselung zulässt.
    Mathematik ist immer solider als juristische Regeln / Gesetze.

  • Okay dann weiß ich jetzt bescheid danke an alle! Thema erledigt.


    nyx Die beiden Samsung 960 Pro 512GB werden jeweils per KyroM.2 über vier 3.0 lanes an jeweils einen Prozessor angebunden. Die Kyro Adapterkarte nimmt die Wärme von beiden Seiten auf und reicht diese direkt an den Passivkühler weiter. Durch den Airflow im 1HE Server ist somit maximale Kühlung der Karten gewährleistet. Jedoch sind die DC U.2 Karten von Intel zum Beispiel trotzdem langsam im Vergleich zu den 960 Pro Karten. Ich benutze dafür auch nur ZFS Software RAID, weil Hardware RAID mir nicht zuspricht. Im Endeffekt 512GB gespiegelt und jeweils per x4 3.0 an einen Prozessor angebunden. Maximale Performance aus den Karten und gesichert durch spiegeln.

  • Skulduggery Nutzt du das Setup produktiv als Webserver? Gemietet ("von der Stange") oder Colo? Klingt nice!

    Btw. Gerade mal die kryoM.2 Produkte bei Caseking angesehen. Direkt was neues mit Wasserkühlung für das Gaming-System. Dank für den Tipp. ;)

  • Nach dem ganzen Nörgeln muss man auch mal loben:


    Eben einen Kunden-Bestandsserver auf den neuesten Stand gebracht und dabei auch mal getestet. Ist seit einigen Monaten bei Netcup und auch gut 60% belegt.


    System: RS 2000 SSD G7SEa1 (4C, 12GB DDR4 ECC, 60GB SSD)