Technisch korrekt wäre ja "VIRTIO" = virtio-blk und "SCSI" = virtio-scsi, oder?
Beiträge von VVV
-
-
openSUSE Tumbleweed mit dem neuesten Snapshot (20181122).
Deaktivieren kann ich es nicht, weil systemd unter diesem Namen nichts findet (dev-sda1.device), auch dev-sda1.service ist ihm unbekannt.
-
Lynis habe ich auch zuvor nicht gekannt und es scheint sehr nützlich zu sein. Allerdings hat es bei meiner nginx-Konfiguration fälschlicherweise gemeint, ich hätte kein TLS aktiviert, obwohl ich TLS mit HSTS nutze und alle HTTP-Anfragen per 301 zu HTTPS weiterleite
-
Aber ich finde es nirgends im System.
Ich glaube, ich habe das System mit dem SCSI-Treiber installiert und dann auf VIRTIO gewechselt, also war ich selbst schuld.
Warum wird der SCSI-Treiber empfohlen? Ist VIRTIO nicht normalerweise schneller als wenn Hardware emuliert wird?
Habe mal versuchsweise auf SCSI umgestellt und es bootet tatsächlich um einiges schneller.
-
Mein Rootserver startet seit einiger Zeit etwas langsam, weil systemd immer 1:30 Minuten lang versucht, den o.g. Dienst zu starten.
Anscheinend versucht er, /dev/sda1 (meine swap-Partition) zu finden. Ich glaube mich erinnern zu können, dass früher die Platten bei den Rootservern unter sdX zu finden waren, seit einiger Zeit sind sie jedoch wie bei den vServern unter vdX.
Auswirkungen auf den normalen Betrieb hat es keine, die swap-Partition wird dennoch gefunden und eingebunden.
Wie kann ich dieses Überbleibsel finden und entfernen, damit der Start nicht immer so lange dauert?
-
Für Root-Server gibt es ja das "Service Level A+" zum Dazubuchen:
https://www.netcup.de/bestellen/produkt.php?produkt=1252
Was genau sind damit die Vorteile ggü einem normalen Root-Server? Die 99,9% Mindestverfügbarkeit mit denen geworben wird, sind ja schon von vornherein dabei. Einzig die schnelleren Antwortzeiten auf Support-Tickets bleiben dann noch, oder habe ich was übersehen?
Dieses Paket gilt außerdem nur für Root-Server, nicht normale vServer, richtig?
-
Okay, danke.
-
Es geht aber nicht um Internetkonzerne, sondern Registries.
Also ganz einfach gefragt: warum zensiert .com sein whois, aber .ch nicht?
-
Das habe ich ebenfalls gefunden, aber müssen nicht ausländische Unternehmen die DSGVO einhalten, wenn sie Daten von EU-Bürgern verarbeiten?
.com ist amerikanisch, .ch schweizerisch, also beides Drittländer.
-
Was ist mit .ch und .li-Domains? Hier stehen wieder alle Daten drin. Fallen die nicht als EU-Kunde unter die DSGVO? .com zeigt ja auch keine Daten mehr.
-
Hab mir noch eine Domain geschnappt, eventuell noch mehr wenn mir bis Mitternacht was Gutes einfällt.
Da die Domain-Aktionen als erste gestartet sind, hätte ich nicht erwartet da noch was zu bekommen wenn ich mir den Ansturm auf die VPS anschaue...
Zugegeben, das niedrigste Limit ist hier 500 Stück und für die VPS nur 100...
-
Ich glaube, wir könnten uns alle die normalen Tarife ebenfalls leisten, aber ich muss zugeben diese Schnitzeljagd macht auch sehr Spaß. Man freut sich wie ein kleines Kind das etwas ganz besonderes ergattert hat
-
Bei mir stand der Server ab 18:05 auf der Seite
Ich trauere noch immer um den VPS500 der zu Beginn des Angebots bereits ausverkauft war.
Ich ebenfalls, der wäre ideal für mein IRC/XMPP/Pleroma-Projekt gewesen. Jetzt heißt es entweder Advent, oder einfach normal bestellen. Ist ja nicht die Welt.
-
Für den Adventskalender wären mal ein, zwei Storageserver-Angebote toll. Ich finde, die werden ein wenig vernachlässigt...
Bin momentan bei einem OpenVZ-Anbieter, und das ist schon sehr einschränkend.
-
Hay,
Der Wert kann sich mit der Zeit zum negativen verändern... vielleicht ist der node noch "leer"
CU, Peter
Den getesteten VPS habe ich seit ca. 7 Monaten.
-
Das stimmt schon, aber dennoch sollten nicht manche Kunden zwei und andere kein Produkt erhalten, geschweige denn schon Stunden vor der angekündigten Aktion überhaupt bestellen können
-
Ich bitte um etwas Verständnis für die verzögerte und zum Teil nicht wie gewohnt koordinierte Abwicklung der heutigen Bestellungen. Wir haben zeitweise 100 Bestellungen in 3 Minuten. Da Neukunden verifiziert werden, kommt es zu den hier geschilderten Unregelmäßigkeiten.
Wer sich an die beschriebenen Voraussetzungen hält, bekommt die bestellten Produkte. Wer probiert limitierte Produkte mehrfach zu bestellen, muss damit rechnen das wir Bestellungen heute komplett ablehnen. Andernfalls könnten wir den heutigen Ansturm leider nicht bewältigen.
Mit freundlichen Grüßen
Felix Preuß
Was passiert mit meinen beiden VPS 200 G8 BF, muss ich damit rechnen dass diese noch nachträglich storniert werden?
Ich habe wie bereits vorhin gesagt auf der Produktseite dazu nirgends eine Limitierung auf 1 Sück pro Kunde sehen können.
https://www.netcup.de/bestellen/produkt.php?produkt=2322
und auch auf der Übersichtsseite ist er ja nicht
-
Hier ist noch der VPS 200 G8, auf einem Server wo schon einiges läuft.
Auch hier habe ich fast dasselbe Ergebnis wie beim RS 2000 G8:
Code: VPS 200 G8, 75% read, 75% write
Alles anzeigenvvv@vps200g8:~> fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75 test: (g=0): rw=randrw, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=64 fio-3.3 Starting 1 process Jobs: 1 (f=1): [m(1)][100.0%][r=128MiB/s,w=42.0MiB/s][r=32.9k,w=10.8k IOPS][eta 00m:00s] test: (groupid=0, jobs=1): err= 0: pid=26982: Fri Nov 23 12:04:19 2018 read: IOPS=29.2k, BW=114MiB/s (120MB/s)(3070MiB/26909msec) bw ( KiB/s): min=94760, max=134840, per=99.74%, avg=116522.87, stdev=7568.22, samples=53 iops : min=23690, max=33710, avg=29130.72, stdev=1892.05, samples=53 write: IOPS=9760, BW=38.1MiB/s (39.0MB/s)(1026MiB/26909msec) bw ( KiB/s): min=32160, max=44696, per=99.76%, avg=38948.91, stdev=2463.30, samples=53 iops : min= 8040, max=11174, avg=9737.23, stdev=615.83, samples=53 cpu : usr=6.94%, sys=23.08%, ctx=117267, majf=0, minf=8 IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=0.1%, >=64=100.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.1%, >=64=0.0% issued rwts: total=785920,262656,0,0 short=0,0,0,0 dropped=0,0,0,0 latency : target=0, window=0, percentile=100.00%, depth=64 Run status group 0 (all jobs): READ: bw=114MiB/s (120MB/s), 114MiB/s-114MiB/s (120MB/s-120MB/s), io=3070MiB (3219MB), run=26909-26909msec WRITE: bw=38.1MiB/s (39.0MB/s), 38.1MiB/s-38.1MiB/s (39.0MB/s-39.0MB/s), io=1026MiB (1076MB), run=26909-26909msec Disk stats (read/write): vda: ios=785521/262588, merge=0/28, ticks=1270556/390548, in_queue=1660828, util=99.69%
Also sowohl RS 2000 G8 als auch VPS 200 G8 schaffen mit dieser Einstellung
Codefio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75
folgende Werte:
random read IOPS: ~30k
random write IOPS: ~10k
random read speed: ~120 MB/s
random write speed: ~40 MB/s
Zum Abschluss nochmal der VPS 200 G8, diesmal umgekehrt mit 25% read, 75% write:
Code: VPS 200 G8, 25% read, 75% write
Alles anzeigenvvv@vps200g8:~> fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=25 test: (g=0): rw=randrw, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=64 fio-3.3 Starting 1 process Jobs: 1 (f=1): [m(1)][100.0%][r=19.2MiB/s,w=58.7MiB/s][r=4922,w=15.0k IOPS][eta 00m:00s] test: (groupid=0, jobs=1): err= 0: pid=27029: Fri Nov 23 12:10:56 2018 read: IOPS=5019, BW=19.6MiB/s (20.6MB/s)(1026MiB/52318msec) bw ( KiB/s): min=16784, max=22912, per=100.00%, avg=20081.68, stdev=855.24, samples=104 iops : min= 4196, max= 5728, avg=5020.41, stdev=213.81, samples=104 write: IOPS=15.0k, BW=58.7MiB/s (61.5MB/s)(3070MiB/52318msec) bw ( KiB/s): min=50744, max=66640, per=99.98%, avg=60077.15, stdev=2052.40, samples=104 iops : min=12686, max=16660, avg=15019.29, stdev=513.10, samples=104 cpu : usr=4.94%, sys=17.18%, ctx=349156, majf=0, minf=8 IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=0.1%, >=64=100.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.1%, >=64=0.0% issued rwts: total=262613,785963,0,0 short=0,0,0,0 dropped=0,0,0,0 latency : target=0, window=0, percentile=100.00%, depth=64 Run status group 0 (all jobs): READ: bw=19.6MiB/s (20.6MB/s), 19.6MiB/s-19.6MiB/s (20.6MB/s-20.6MB/s), io=1026MiB (1076MB), run=52318-52318msec WRITE: bw=58.7MiB/s (61.5MB/s), 58.7MiB/s-58.7MiB/s (61.5MB/s-61.5MB/s), io=3070MiB (3219MB), run=52318-52318msec Disk stats (read/write): vda: ios=261738/783533, merge=0/69, ticks=334092/2956544, in_queue=3290140, util=99.85%
also:
random read IOPS: ~5k
random write IOPS: ~15k
random read speed: ~20 MB/s
random write speed: ~60 MB/s
-
Ich wäre bereit, dir einen zu überlassen wenn das nicht 20€ Gebühr oder so kostet.
Vielleicht kann [netcup] Felix P. da helfen?
-
mfnalex könntest du noch einen Test mit fio machen? Siehe hier:
https://www.binarylane.com.au/…how-to-benchmark-disk-i-o
Da sieht man dann schön die IOPS
Habe für den Test fio 3.12 auf Debian 8 selbst kompiliert, weil das mitgelieferte Paket recht alt war (2.1.11).
Man braucht build-essential, libaio-dev und zlib1g-dev.
Code: RS 2000 SSD G8 xRAM
Alles anzeigenroot@vvv:~/bin/fio-fio-3.12# ./fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75 test: (g=0): rw=randrw, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=64 fio-3.12 Starting 1 process test: Laying out IO file (1 file / 4096MiB) Jobs: 1 (f=0): [f(1)][100.0%][r=115MiB/s,w=37.0MiB/s][r=29.5k,w=9722 IOPS][eta 00m:00s] test: (groupid=0, jobs=1): err= 0: pid=15804: Fri Nov 23 11:22:15 2018 read: IOPS=29.3k, BW=114MiB/s (120MB/s)(3070MiB/26838msec) bw ( KiB/s): min=77344, max=143840, per=99.98%, avg=117109.17, stdev=9582.20, samples=53 iops : min=19336, max=35960, avg=29277.26, stdev=2395.55, samples=53 write: IOPS=9786, BW=38.2MiB/s (40.1MB/s)(1026MiB/26838msec) bw ( KiB/s): min=26392, max=47704, per=99.98%, avg=39138.74, stdev=3141.13, samples=53 iops : min= 6598, max=11926, avg=9784.66, stdev=785.32, samples=53 cpu : usr=7.80%, sys=25.56%, ctx=124956, majf=0, minf=7 IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=0.1%, >=64=100.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.1%, >=64=0.0% issued rwts: total=785920,262656,0,0 short=0,0,0,0 dropped=0,0,0,0 latency : target=0, window=0, percentile=100.00%, depth=64 Run status group 0 (all jobs): READ: bw=114MiB/s (120MB/s), 114MiB/s-114MiB/s (120MB/s-120MB/s), io=3070MiB (3219MB), run=26838-26838msec WRITE: bw=38.2MiB/s (40.1MB/s), 38.2MiB/s-38.2MiB/s (40.1MB/s-40.1MB/s), io=1026MiB (1076MB), run=26838-26838msec Disk stats (read/write): vda: ios=779110/260362, merge=0/0, ticks=1268196/377776, in_queue=1645860, util=99.69%
Zum Vergleich die Host-SSD meines NAS (ext4):
Code: Host-SSD im NAS
Alles anzeigenvvv@nas:~> fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75 test: (g=0): rw=randrw, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=64 fio-3.10 Starting 1 process test: Laying out IO file (1 file / 4096MiB) Jobs: 1 (f=1): [m(1)][100.0%][r=222MiB/s,w=73.9MiB/s][r=56.9k,w=18.9k IOPS][eta 00m:00s] test: (groupid=0, jobs=1): err= 0: pid=8485: Fri Nov 23 11:10:40 2018 read: IOPS=56.9k, BW=222MiB/s (233MB/s)(3070MiB/13821msec) bw ( KiB/s): min=222592, max=233024, per=99.96%, avg=227366.89, stdev=2913.12, samples=27 iops : min=55648, max=58256, avg=56841.67, stdev=728.24, samples=27 write: IOPS=19.0k, BW=74.2MiB/s (77.8MB/s)(1026MiB/13821msec); 0 zone resets bw ( KiB/s): min=74632, max=77816, per=99.98%, avg=76003.19, stdev=969.66, samples=27 iops : min=18658, max=19454, avg=19000.78, stdev=242.41, samples=27 cpu : usr=10.09%, sys=68.48%, ctx=217463, majf=0, minf=10 IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=0.1%, >=64=100.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.1%, >=64=0.0% issued rwts: total=785920,262656,0,0 short=0,0,0,0 dropped=0,0,0,0 latency : target=0, window=0, percentile=100.00%, depth=64 Run status group 0 (all jobs): READ: bw=222MiB/s (233MB/s), 222MiB/s-222MiB/s (233MB/s-233MB/s), io=3070MiB (3219MB), run=13821-13821msec WRITE: bw=74.2MiB/s (77.8MB/s), 74.2MiB/s-74.2MiB/s (77.8MB/s-77.8MB/s), io=1026MiB (1076MB), run=13821-13821msec Disk stats (read/write): sda: ios=783762/262010, merge=221/23, ticks=470726/82706, in_queue=555032, util=99.50%
Außerdem der Test auf dem HDD-RAID6 im NAS (auch ext4), diesmal aber mit 1GiB-Testfile damit es nicht solange dauert
Code: HDD-RAID6 im NAS
Alles anzeigenvvv@nas:/nas> fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=1G --readwrite=randrw --rwmixread=75 test: (g=0): rw=randrw, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=libaio, iodepth=64 fio-3.10 Starting 1 process Jobs: 1 (f=1): [m(1)][99.8%][r=3939KiB/s,w=1193KiB/s][r=984,w=298 IOPS][eta 00m:01s] test: (groupid=0, jobs=1): err= 0: pid=9189: Fri Nov 23 11:36:33 2018 read: IOPS=438, BW=1753KiB/s (1795kB/s)(768MiB/448422msec) bw ( KiB/s): min= 431, max= 4016, per=99.97%, avg=1751.44, stdev=300.49, samples=896 iops : min= 107, max= 1004, avg=437.84, stdev=75.11, samples=896 write: IOPS=146, BW=586KiB/s (600kB/s)(256MiB/448422msec); 0 zone resets bw ( KiB/s): min= 16, max= 1296, per=99.97%, avg=584.85, stdev=127.38, samples=896 iops : min= 4, max= 324, avg=146.17, stdev=31.85, samples=896 cpu : usr=1.10%, sys=5.68%, ctx=203090, majf=0, minf=9 IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=0.1%, >=64=100.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.1%, >=64=0.0% issued rwts: total=196498,65646,0,0 short=0,0,0,0 dropped=0,0,0,0 latency : target=0, window=0, percentile=100.00%, depth=64 Run status group 0 (all jobs): READ: bw=1753KiB/s (1795kB/s), 1753KiB/s-1753KiB/s (1795kB/s-1795kB/s), io=768MiB (805MB), run=448422-448422msec WRITE: bw=586KiB/s (600kB/s), 586KiB/s-586KiB/s (600kB/s-600kB/s), io=256MiB (269MB), run=448422-448422msec Disk stats (read/write): md0: ios=196427/65883, merge=0/0, ticks=0/0, in_queue=0, util=0.00%, aggrios=65464/39515, aggrmerge=108/121, aggrticks=4581601/1681306, aggrin_queue=6262651, aggrutil=97.02% sdf: ios=65211/39655, merge=60/112, ticks=2719887/760746, in_queue=3479656, util=87.64% sde: ios=65467/39450, merge=164/123, ticks=9645100/4161048, in_queue=13806216, util=97.02% sdd: ios=65558/39457, merge=162/91, ticks=3242342/1003527, in_queue=4245480, util=88.96% sdc: ios=65407/39579, merge=107/157, ticks=3788420/1332143, in_queue=5120628, util=89.62% sdb: ios=65677/39438, merge=49/123, ticks=3512256/1149068, in_queue=4661276, util=90.03%