was ist denn "im guten Sinn" fürn Arsch?
Toilettenpapier
was ist denn "im guten Sinn" fürn Arsch?
Toilettenpapier
RS-Klopapier?
Nicht jeder steht auf das andere Geschlecht
Ach das war nur ein Outing. Wie langweilig...
Die Originale Webseite von Proxmox empfiehlt das nur zu Testzwecken in den Systemanforderungen.
Sie schreiben Desktop-Virtualisierung. AMD-V & Co. sind in den meisten Consumer-Boards einfach nur dilettantisch implementiert. Virtualisierung und Nesting auf Server-Hardware ist vollkommen üblich, nur es war halt bis Kernel 5.8 für EPYC & Co. buggy.
Sie schreiben Desktop-Virtualisierung. AMD-V & Co. sind in den meisten Consumer-Boards einfach nur dilettantisch implementiert. Virtualisierung und Nesting auf Server-Hardware ist vollkommen üblich, nur es war halt bis Kernel 5.8 für EPYC & Co. buggy.
Aber nicht auf VPS und RS.
Da kannst du einfach zu wenig kontrollieren.
Auf deinem eigen Dedizierten Server kannst du soviel Nestes Visualisierung betrieben wie du willst.
Btw. Proxmox läuft besten auf Consumer Bords
Sie schreiben Desktop-Virtualisierung. AMD-V & Co. sind in den meisten Consumer-Boards einfach nur dilettantisch implementiert.
Ich habe weder unter AMD-V, noch unter VTd, VTx Probleme mit Virtualisierung, u.a. auch mit IOMMU Späßen.
Ich weiß ja nicht, auf was für Chipsätze du da setzt, oder welche Hypervisor eingesetzt werden - die Aussage kann ich so zumindest pauschal nicht unterschreiben.
Aber nicht auf VPS und RS.
Da kannst du einfach zu wenig kontrollieren.
Es trotzdem unkündbar zu verkaufen ist schon eine Frechheit. Aber wie gesagt, unter Kernel 5.4 läuft's hervorragend. Sogar Windows bootet problemlos.
Gestern ist mir einer der vServer vom Typ RS 4000 G 9.5 wieder neu gestartet. Diesmal aber nicht mit Proxmox 7 oder 8, sondern mit Debian 12 und der Kernelversion 6.1.0-11-amd64.
Über die Logs sieht man leider nichts.
Von daher sieht es für mich als Endanwender eher so aus, als würden die vServer nach ein par Tagen einfach mal vom Host willkürlich neu gestartet werden. Denn ich habe ja mehrere vServer vom gleichen Typ bei Netcup, die sich identisch verhalten.
Gestern habe ich mal beim Mitbewerber einen der neueren Generationen mit der Bezeichnung VDS bestellt und dort das gleiche Setup wie auf einen vServer bei Netcup installiert und werde jetzt auch da mal beobachten, ob dort die Systeme auch so willkürlich wie bei Netcup neu gestartet wird.
VDS = Virtual Dedicated Server
Diese Art von vServer soll sich laut den Providern, die solche vServer als VDS anbieten, ähnlich verhalten wie Dedicated Server.
Das sind im Prinzip wohl auch nur dedizierte CPUs und garantierter RAM im Hypervisor. Und das sind ja die Rootserver.
Die Bezeichnung vServer würde ich eher mit dem linux-vserver-Projekt assoziieren, und das war und ist ja nur eine Paravirtualisierung.
VPS = Virtual Private Server können aber im Grunde bei anderen Anbietern auch Rootserver sein, wie auch Rootserver sich nur auf Root-Zugriff beschränken können, ohne, dass die CPUs dediziert wären, sondern wie hier bei VPS shared sind.
Auf die Bezeichnung zu schauen, hilft da nicht viel. VDS ist insofern aber mE unzweideutig.
Der Flaschenhals dürfte in den meisten Fällen (wie leider auch hier manchmal) Shared IO sein. Das macht aus meiner Sicht die meisten dieser VDS Produkte unattraktiv, weil man zwar deutlich mehr bezahlt, aber am Ende nur begrenzt mehr dafür bekommt. VDS mit dedicated Storage wäre wirklich mal was. Denn was nützen mir die dedizierten Kerne, wenn die Load durch iowait entsprechend hoch schiesst und die Kerne sich langweilen, weil sie auf die Disk warten müssen. Das sollte man auch berücksichtigen, wenn man solche Produkte bucht.
Denn was nützen mir die dedizierten Kerne, wenn die Load durch iowait entsprechend hoch schiesst und die Kerne sich langweilen, weil sie auf die Disk warten müssen.
Das ist so ziemlich genau meine Erfahrung mit praktisch allen (shared) VPS-Anbietern, die ich bisher so getestet habe.
VDS mit dedicated Storage wäre wirklich mal was.
Ja, da wäre ich sofort dabei.
VDS mit dedicated Storage wäre wirklich mal was.
Ob da auch tatsächlich ein Platten- oder SSD-Array durchgereicht wird, kann man z.B. mit dem Befehl hdparm (hdparm -I Laufwerk) abfragen.
Auf dem Netcup vServer (RS 4000 G9.5) sieht die Ausgabe wie folgt aus:
Auf dem VDS des Mitbewerbers sieht die Ausgabe wie folgt aus:
hdparm -I /dev/sda
/dev/sda:
ATA device, with non-removable media
Standards:
Likely used: 1
Configuration:
Logical max current
cylinders 0 0
heads 0 0
sectors/track 0 0
--
Logical/Physical Sector size: 512 bytes
device size with M = 1024*1024: 0 MBytes
device size with M = 1000*1000: 0 MBytes
cache/buffer size = unknown
Capabilities:
IORDY not likely
Cannot perform double-word IO
R/W multiple sector transfer: not supported
DMA: not supported
PIO: pio0
Display More
Ich nehme mal an, dass zwischen dem SSD-Array und dem VDS ein RAID-Controller hängt und keine virtuelle SSD.
Ob da auch tatsächlich ein Platten- oder SSD-Array durchgereicht wird, kann man z.B. mit dem Befehl hdparm (hdparm -I Laufwerk) abfragen.
Das zeigt aber eher den Unterschied zwischen virtio-scsi vs. virtio-blk (sprich sda vs vda). Wenn du den Disk Treiber bei Netcup auf scsi umstellst, solltest du eigentlich den gleichen Output bekommen wie bei dem Mitbewerber. Bei einer echten Disk würde im hdparm Output noch viel mehr auftauchen.
Wenn du den Disk Treiber bei Netcup auf scsi umstellst, solltest du eigentlich den gleichen Output bekommen wie bei dem Mitbewerber.
Vielen Dank.
Soeben habe ich es mir noch mal an einem kleinen RS über das Rettungssystem angeschaut und bekomme auch mit dem virtio-scsi Treiber die Werte angezeigt, die ich auf dem VDS des Mitbewerbers angezeigt bekomme.
Bei einer echten Disk würde im hdparm Output noch viel mehr auftauchen.
Und wie sieht es aus, wenn ein Hardware-RAID-Controller zwischen der SSD und dem OS ist?
Und wie sieht es aus, wenn ein Hardware-RAID-Controller zwischen der SSD und dem OS ist?
Die Idee eines Hardware RAIDs ist ja, dass man das im OS so gar nicht direkt an der Disk sieht, sondern dass man sie wie eine ganz normale Disk verwenden kann. Man sollte es aber auf dem Host System mittels "lspci" sehen können, zumindest ob da ein Hardware Controller aktiv ist. In einer VM hingegen wird man das wohl nicht sehen können.
Man sollte es aber auf dem Host System mittels "lspci" sehen können, zumindest ob da ein Hardware Controller aktiv ist.
Ja stimmt. An diesen Befehl hatte ich gar nicht mehr gedacht.
Auf dem VDS ist es auch nur eine virtuelle SSD: