Beiträge von andreas.

    Zu Anfang habe ich auch so gedacht.

    Aber so schlimm ist es gar nicht. Denn ich habe mir seit ca. Mitte 2022 in Frankfurt einen Dedicated Server mit IPMI angemietet, bei dem mir in der Zeit von 2022 bis 2024 Anfang des Jahres 2024 nur eine der vier SAS-SSD´s ausgefallen war. Und Diese wurde mir nach dem Erstellen des Tickets sogar auch an einem Sontag innerhalb von 15 Min. im laufenden Betrieb durch eine nagelneue SAS-SSD ausgetauscht.

    Sicherlich kann man alles over-engineeren oder Workarounds bauen. Auf Frickelbude hab ich persönlich keinen Bock.

    Deswegen hier die "Beschwerde", möglicherweise landet das ja bei netcup in der richtigen Abteilung.

    Wäre dann nicht der Dedicated Server AX162-S aus Falkenstein nicht eine echte Alternative für dich? Denn laut deren Beschreibung ist Zitat: "Alle Root-Server haben standardmäßig einen dedizierten 1 GBit-Uplink und damit unlimited Traffic."


    Noch deutlicher wird es erst für Gewerbetreibende. Denn wenn man sich mal beide folgende Kostenaufstellungen genauer anschaut, so wird man feststellen, dass der Server aus Falkenstein nur ca. 100 Euro mehr kostet. Und für 100 Euro inkl. MwSt. kann man kein weiteren Mitarbeiter für einen ganzen Monat ohne Pausen einstellen.


    Server RS 16000 G11 NUE

    Serverkosten inkl. 19% MwSt. = 129,60 Euro

    Server Standort inkl. 19% MwSt.: = 19,44 Euro

    Preis pro Monat inkl. 19% MwSt.: 149,04 Euro


    Server (echtes Blech) in Falkenstein, Typ AX162-S

    Preis pro Monat inkl. 19% MwSt.: 248,71 Euro

    Das ist mein einziger G11, schon komisch sich bei einem neuen Gedanken über Traffic machen zu müssen. Musste ich bisher nie. Soll netcup halt eine "Traffic öffnen"-Option anbieten, von mir aus für nen 10er im Monat für echtes unlimited (Monitored, netcup hat sicherlich kein Bock auf Torrent Seeds oder sowas). Aber das aktuelle Modell ist Quack 🦆

    Das Traffic-Problem könnte man auch elegant aushebeln, indem man noch vor der Generation G11 einen kleinen RS 1000 der Generation G9.5 ansetzt und intern dann die Generationen G9.5 und G11 über vLAN 2.5 verbindet. Denn laut der technischen Angaben des vLAN´s ist das Traffic-Volumen für die Zusatzoption vLAN unbegrenzt.

    Weiterhin ist laut den technischen Daten NAT ins WAN nicht möglich. Aber wer z.B. mit IP-Tables umgehen kann, kann auch das aushebeln.

    Ich habe da mal ein IOPS-Test für einen RS 8000 G11 und einen RS 8000 G9.5 durchgeführt.


    Schaut man sich folgende Werte an, so nehmen sich die beiden Generationen in Bezug der IOPS nichts.

    Schaut man sich aber das Ergebnis des RS 8000 G9.5 genauer an, so ist das Ergebnis für die IOPS bezogen auf die Schwankungsbreite sehr unruhig und von daher gegenüber der neueren Generation extrem schlecht. Mehr siehe folgende Meßergebnisse:


    RS 8000 G11


    RS 8000 G9.5


    Vergleicht man die IOPS-Werte der Generation G11 mit einem Dedicated Server vom Mitbewerber, so sieht man daran auch gut, dass derzeit die Generation G11 wirklich gut sind.


    Dedicated Server mit NVMe SSD´s, Software-RAID 1

    Die JiffyBox verwendet nicht KVM sondern Xen. Wenn ich das richtig im Kopf habe, war bei den dortigen Images standardmäßig nicht einmal ein Kernel oder Bootloader enthalten, weil das bei der verwendeten Virtualisierung nicht notwendig war. Einen eigen Kernel konnte man auf Anfrage zwar nutzen, aber das war dann trotzdem eher eine Frickellösung. Weiters sind die "Festplatten" dort eigenständige Devices und haben gar keine Partitionen.

    Bei den sogenannten JiffyBoxen basierend auf Xen des Mitbewerbers war es möglich, sich noch vor dem Installationsprozess zwischen einer Container- und einer Voll-Virtualisierungs-Installation zu entscheiden. Denn hatte man seinen Voll-Virtualisierten vServer mit einem Betriebssystem seiner Wahl als Voll-Virtualisierungs-Installation installiert, so verhielt sich der Voll-Virtualisierte vServer wie auch hier die vServer von Netcup.


    Vor einem Jahr habe ich für einen Bekannten einen Xen-Container und einen Xen-Voll-Virtualisierten vServer hier zu Netcup erfolgreich umgezogen.


    Wie bin ich bei beiden Varianten dabei vorgegangen?

    1. Den bisherigen vServer habe ich im Rettungssystem gestartet.
    2. Sofern die virtuelle Platte vom Rettungssystem nicht gemountet war, sie noch gemountet.
    3. Vom / ab den kompletten Inhalt der virtuellen Platte per TAR in einer TAR-Datei gepackt.
    4. Auf dem Zielserver das gleiche OS mit gleicher Versionsnummer installiert.
    5. Ein Snapshot vom Zielserver erstellt.
    6. Das Rettungssystem des Zielservers gestartet und darin die virtuelle Platte gemountet.
    7. Die TAR-Datei ab / auf der gemounteten virtuellen Platte ausgepackt.
    8. Danach IP-Adresse bzw. IP-Adressen und MAC-Adresse bzw. MAC-Adressen des Zielserver angepaßt.
    9. Den Zielserver in beiden Varianten erfolgreich neu gestartet.
    10. Und danach glücklich sein.

    … und alle eigenen RS sind im Gegensatz zu den VPS aufgrund der höheren Verfügbarkeit auf verschiedene Host verteilt.

    Ich benutze keine extremst ausgefeilten Monitoring-Tools, sondern eher den Dienstleister serverguard24.de, der für mich alles nötige zum Monitoren meiner Server zur Verfügung stellt.


    So werden bei diesen Dienstleister auch von mehreren Meßpunkten, die weltweit verteilt sind, die Zielserver und auch bei Bedarf dessen Dienste darauf auf Erreichbarkeit geprüft.


    Innerhalb meiner Server prüfe ich dann nur noch mit dem Paket sysstat und dem Befehl sar das IO und die CPU-Teilung der einzelnen vCores, die man ja sich auch beim Typ RS mit anderen Kunden teilt.


    Wenn du lieber einen eigenen Monitoring-Server vorziehst, dann schau dir auch mal CheckMK genauer an. Denn das ist nicht nur sehr modern, sondern auch sehr mächtig und flexibel. Und erst recht im Zusammenspiel mit Grafana zur Visualisierung der einzelnen Ergebnisse.

    Sagt mal ich brauche (aus Gründen) eine Anbieter-Redundanz und bin daher gerade am suchen was es da so gibt.

    Hat hier wer Erfahrung mit C0ntab0 Servern?

    Damit man dir besser helfen kann, solltest du eventuell mal genauer beschreiben, was du vorhast. Denn Anbieter-Redundanz ist sehr dehnbar und nicht jeder Anbieter kommt für den gleichen Zweck - bezogen auf deren Produkte und dessen Stärken - in Frage.

    Ein Dedi bei H. wird ausgemustert und soll auf 2-3 Virtualisierte verteilt werden.

    Und ich kann mich nicht zwischen den netcup ARM und den ARM-Cloudservern bei H. entscheiden... ;(

    An deiner Stelle würde ich noch warten, bis es auch die ARM-Server vom Typ RS gibt. Denn diese werden ja aufgrund der höheren Verfügbarkeit auf verschiedene Hostsysteme verteilt.

    Gilt das auch für langsamere VLANs? Also würden sich 2x 1 GBit/s dann auch die 1 GBit/s teilen, oder kämen mehrere VLANs in Summe an die maximale Anschlussgeschwindigkeit des Servers heran?

    Ich hatte es nur mit 2 x 2,5 Gbit/s vLAN´s mal getestet.

    Denn 2 x ein vLAN mit einer maximalen Bandbreite von 1 Gbit/s zu bestellen und Diese danach zu bündeln, damit sie dann nachher an den RS´s nur eine maximale Bandbreite von 2 anstelle von 2,5 Gbit/s erreichen, kam für mich damals nicht in Frage.

    Welcher Mai-Server gibt diese Antwort, die mir bisher in der Form noch nie begegnet ist?

    Wenn du diese Fehlermeldung als Mail erhältst, müßtest du mehr auch über den Header der Mail erfahren können. Denn im Header kann man sehr schön den Verlauf einsehen.

    Schade, dass ältere VPS dann keine vNICs mit 2.5Gbit bekommen können. Die Server werden vermutlich auf Hosts liegen die nicht für diese Bandbreiten ausgelegt sind, dennoch schade.

    Aber du kannst solche alten vServer-Generationen dennoch über das vLAN 2,5 Gbit/s mit neueren Generationen verbinden. Sie erreichen dann aber leider nur nicht die über das vLAN 2,5 Gbit/s zu erreichende Bandbreite.

    Bist du dir aber hierbei wirklich sicher?

    Ich selber habe so ein Setup und habe es vor gut zwei Jahren auch schon mal getestet.

    Was nicht geht, so meine damaligen Tests, ist zwei vLAN´s mit 2,5 Gbit/s zu bestellen und dann parallel zu nutzen, um damit dann die Bandbreite zu verdoppeln. Denn da teilen sich die beiden vLAN´s tatsächlich die maximale Bandbreite von nur einem vLAN.

    Deshalb denke ich, dass die Bandbreite letzlich geteilt wird und für mich das vLAN dementsprechend nur dann Sinn machen würde, wenn ich mit meinen Limits, also z.b. 120TB, nicht zurecht kommen würde. Andernfalls kann ich ja einfach ein eigenes 'vLAN' mittels VPN etc. erstellen und meine inkludierte Bandbreite verwenden.

    Wenn über zwei RS´s, >= G9 über die WAN- und über die LAN (vLAN)-Schnittstelle gleichzeitig 2,5 Gbit/s übertragen werden, können bis zu 5 Gbit/s übertragen werden.

    Die beiden Schnittstellen, WAN und LAN (vLAN), behindern sich also gegenseitig nicht.

    Ist eigentlich bei den vLANs die Bandbreite seperat oder wird einfach von der Server Anbindung genommen?

    Sprich wenn der RS mit 2.5Gbit nach extern angebunden ist, hat dann das vLAN seine eigene Bandbreite oder nutzt es die 2.5Gbit des Servers selbst?

    Das jeweilige vLAN nutzt die zugewiesene Schnittstellengeschwindigkeit voll aus und wird durch die Schnittstelle des WAN´s nicht ausgebremst.