Im CCP steht beim Produkt, dass es ne SSD ist...
Muss ich mal den Support Kontaktieren.
Performacevergleich SSD und SAS?
- lacarpe
- Thread is marked as Resolved.
-
-
Danke für die Beiträge oben, hier mein Vergleich - beide sind RS 8000 SSD G7 SE a2, einmal mit SSD und einmal mit SAS
SSD ist im Betrieb, SAS ist ganz neu,
beim Schreiben ist der Unterschied groß, beim lesen ok, wenn die Applikation nicht so viel schreibt.SSD:
hdparm -tT --direct /dev/sda3/dev/sda3:
Timing O_DIRECT cached reads: 1764 MB in 2.00 seconds = 881.72 MB/sec
Timing O_DIRECT disk reads: 2736 MB in 3.00 seconds = 911.27 MB/sec
SAS:
hdparm -tT --direct /dev/sda3/dev/sda3:
Timing O_DIRECT cached reads: 762 MB in 2.00 seconds = 380.99 MB/sec
Timing O_DIRECT disk reads: 214 MB in 3.10 seconds = 69.02 MB/sec -
ich weis nicht mal mehr ob ich sas oder ssd bestellt hab aber
Quotehdparm -tT /dev/sda1
/dev/sda1:
Timing cached reads: 17220 MB in 2.00 seconds = 8620.53 MB/sec
Timing buffered disk reads: 1458 MB in 2.02 seconds = 720.10 MB/sec
hdparm -tT --direct /dev/sda1/dev/sda1:
Timing O_DIRECT cached reads: 4386 MB in 2.00 seconds = 2193.61 MB/sec
Timing O_DIRECT disk reads: 1458 MB in 0.38 seconds = 3825.27 MB/sec
getestet auf Root-Server L SSD v6 (keine ahnung ob es wirklich eine SSD ist) -
-
SSD:
hdparm -tT --direct /dev/sda3/dev/sda3:
Timing O_DIRECT cached reads: 1764 MB in 2.00 seconds = 881.72 MB/sec
Timing O_DIRECT disk reads: 2736 MB in 3.00 seconds = 911.27 MB/sec
Diese Messung ist fehlerhaft, da der Durchsatz mit Cache geringer ist als ohne Cache. -
Moin zusammen.
ich habe noch keine Maschine bei netcup und frage mich aufgrund der sehr begrenzten Kapazität eben auch ob es eine SSD sein muss oder doch SAS reicht. Zur Diskussion möchte ich meine Ergebnisse per sysbench beitragen (alles Maschinen mit SSD und alle mit unterschiedlicher Hardware).
Parameter:
sysbench --test=fileio --file-total-size=5G --file-test-mode=rndrw --max-time=300 --max-requests=0 run (Linux)
sysbench fileio --file-total-size=5G --file-test-mode=rndrw --time=300 --max-requests=0 run (leicht andere Syntax auf dem Mac)
Code
Display MoreExtra file open flags: 0 128 files, 40MiB each 5GiB total file size Block size 16KiB Number of IO requests: 0 Read/Write ratio for combined random IO test: 1.50 Periodic FSYNC enabled, calling fsync() each 100 requests. Calling fsync() at the end of test, Enabled. Using synchronous I/O mode Doing random r/w test Initializing worker threads... Threads started!
Ergebnis: Virtuozzo vServer (2 vCores, 4 GB RAM) bei Konkurrent A:
Code
Display MoreOperations performed: 202620 Read, 135080 Write, 432186 Other = 769886 Total Read 3.0917Gb Written 2.0612Gb Total transferred 5.1529Gb (17.588Mb/sec) 1125.65 Requests/sec executed Test execution summary: total time: 300.0036s total number of events: 337700 total time taken by event execution: 13.1637 per-request statistics: min: 0.00ms avg: 0.04ms max: 35.69ms approx. 95 percentile: 0.01ms Threads fairness: events (avg/stddev): 337700.0000/0.00 execution time (avg/stddev): 13.1637/0.00
Ergebnis: KVM Root Server bei Konkurrent B (6 dedizierte Kerne, 24GB RAM):
Code
Display MoreOperations performed: 1520040 Read, 1013360 Write, 3242720 Other = 5776120 Total Read 23.194Gb Written 15.463Gb Total transferred 38.657Gb (131.95Mb/sec) 8444.65 Requests/sec executed Test execution summary: total time: 300.0005s total number of events: 2533400 total time taken by event execution: 53.3505 per-request statistics: min: 0.00ms avg: 0.02ms max: 8.72ms approx. 95 percentile: 0.04ms Threads fairness: events (avg/stddev): 2533400.0000/0.00 execution time (avg/stddev): 53.3505/0.00
Ergebnis: Macbook Pro Mid 2014 (2 Kerne i5, 8GB RAM):
Code
Display MoreFile operations: reads/s: 2312.07 writes/s: 1541.38 fsyncs/s: 4932.23 Throughput: read, MiB/s: 36.13 written, MiB/s: 24.08 General statistics: total time: 300.0004s total number of events: 2635723 Latency (ms): min: 0.00 avg: 0.11 max: 77.45 95th percentile: 0.36 sum: 297097.61 Threads fairness: events (avg/stddev): 2635723.0000/0.00 execution time (avg/stddev): 297.0976/0.00
Die Werte sind alle nicht vergleichbar mit denen, die hier per hdparm ermittelt wurden. Es wäre interessant zu sehen, was die getesteten Maschinen per sysbench liefern.
-
Ich hatte das hier schonmal angesprochen; https://forum.netcup.de/sonsti…oot-server-herbst-aktion/
Es kommt auf den kompletten Anwendungsstack an. Die Server von netcup haben relativ günstig ziemlich viel RAM. Die meisten Anwendungen haben da genug Platz um wirklich nur in Ausnahmefällen überhaupt auf die Platte zu müssen...
Zusammenfassend: Du musst das mit deiner Anwendung messen/testen aber ich denke der Unterschied zwischen SAS und SSDs (der trotzdem enorm ist!) wird keinen Unterschied bei den meisten Anwendungen ergeben.
-
-
c.lemon Was war dein Sysbench prepare Commando? Dann test ich das mal auf einem RS 4000 G7 SE?
sysbench --test=fileio --file-total-size=5G prepare
-
Hier das Ergebnis:
Code
Display MoreOperations performed: 1346760 Read, 897840 Write, 2873058 Other = 5117658 Total Read 20.55Gb Written 13.7Gb Total transferred 34.25Gb (116.91Mb/sec) 7481.99 Requests/sec executed Test execution summary: total time:300.0002s total number of events:2244600 total time taken by event execution: 32.6777 per-request statistics: min:0.00ms avg:0.01ms max:0.95ms approx. 95 percentile:0.05ms Threads fairness: events (avg/stddev):2244600.0000/0.00 execution time (avg/stddev): 32.6777/0.00
-
ich habe mal das hier auf einer virtuellen Maschine, welche definitiv auf einer SSD "gehostet" ist:
[root@host ~]# /sbin/hdparm -tT /dev/sda1
/dev/sda1:
Timing cached reads: 16182 MB in 2.00 seconds = 8104.42 MB/sec
Timing buffered disk reads: 224 MB in 1.97 seconds = 113.77 MB/sec
[root@host ~]# /sbin/hdparm -tT --direct /dev/sda1
/dev/sda1:
Timing O_DIRECT cached reads: 748 MB in 2.00 seconds = 373.72 MB/sec
Timing O_DIRECT disk reads: 224 MB in 0.75 seconds = 298.85 MB/sec
(betreibe ein paar VMs auf meinem PC zu Hause)
-
-
-
da ich mit einer kleinen Systemplatte und den Rest auf einer großen Platte installiert habe,
hier diese - noch leer:
Coderoot@host:~# /sbin/hdparm -tT /dev/sda4 /dev/sda4: Timing cached reads: 21048 MB in 2.00 seconds = 10539.75 MB/sec Timing buffered disk reads: 2174 MB in 3.00 seconds = 724.33 MB/sec
bzw.
-
Hallo zusammen,
auf meinen brandneuen RS 2000 SAS sieht das leider so aus:
Code# /sbin/hdparm -tT --direct /dev/sda3 /dev/sda3: Timing O_DIRECT cached reads: 24 MB in 2.02 seconds = 11.86 MB/sec Timing O_DIRECT disk reads: 4 MB in 3.47 seconds = 1.15 MB/sec
Dementsprechend frage ich mich natürlich, ob ich irgendwas falsch mache...?
-
-
Stammen die Werte aus dem Rettungssystem? Hat dein Server vielleicht noch anderes zu tun außer dem Schreiben dieser Daten?
-
Die Werte stammen nicht aus dem Rettungssystem.
Zu tun hat der Server im Grunde so gut wie nichts. Vor dem Sart der obigen Kommandos habe ich das mittels htop sowie iotop überprüft. - Der Server ist eigentlich dafür vorgesehen, verschiedene Web-Anwendungen zu betreiben. Bisher habe ich allerdings apache und PHP noch gar nicht installiert.
-
Vorhin hatte ich die Messung zwei, drei mal wiederholt, um sicherzustellen, daß es sich nicht nur um einen Ausreißer handelt. Nun, knapp eine Stunde später, habe ich das ganze nochmal versucht, mit deutlich besserem (wenn auch nicht überragendem) Ergebnis:
Code# /sbin/hdparm -tT --direct /dev/sda3 /dev/sda3: Timing O_DIRECT cached reads: 3112 MB in 2.00 seconds = 1555.24 MB/sec Timing O_DIRECT disk reads: 460 MB in 3.00 seconds = 153.12 MB/sec
Vielleicht gab es nur ein temporäres Problem auf dem Wirtssystem?
-
Ich habe die Vermutung das bei mir etwas ganz schief läuft. Ausgeführt wurde der Befehl auf einem RS 2000 SAS G7 SE 12M mit dem folgenden Befehl.
fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75Code
Display Moretest: (g=0): rw=randrw, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=64 fio-2.16 Starting 1 process test: Laying out IO file(s) (1 file(s) / 4096MB) Jobs: 1 (f=1): [m(1)] [100.0% done] [1720KB/572KB/0KB /s] [430/143/0 iops] [eta 00m:01s] test: (groupid=0, jobs=1): err= 0: pid=18449: Mon Jan 15 14:50:38 2018 read : io=3070.4MB, bw=807799B/s, iops=197, runt=3985446msec write: io=1025.8MB, bw=269863B/s, iops=65, runt=3985446msec cpu : usr=0.20%, sys=0.75%, ctx=580407, majf=0, minf=7 IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=0.1%, >=64=100.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.1%, >=64=0.0% issued : total=r=785996/w=262580/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=64 Run status group 0 (all jobs): READ: io=3070.4MB, aggrb=788KB/s, minb=788KB/s, maxb=788KB/s, mint=3985446msec, maxt=3985446msec WRITE: io=1025.8MB, aggrb=263KB/s, minb=263KB/s, maxb=263KB/s, mint=3985446msec, maxt=3985446msec Disk stats (read/write): sda: ios=790554/301870, merge=2027/32044, ticks=164900180/63189604, in_queue=228096188, util=100.00%
Insgesamt hat der Spaß etwas über 30 Minuten gebraucht. Kein Wunder da im Schnitt auch bloß 65 iops write drin waren. Was ist das los netcup ?
-
Newly created posts will remain inaccessible for others until approved by a moderator.
The last reply was more than 365 days ago, this thread is most likely obsolete. It is recommended to create a new thread instead.