Beiträge von cltrmx

    Hier kommt kein externer Dienstleister zum tragen und ganz besonders hat kein externer Dienstleister Zugriff auf die personenbezogenen Daten. netcup ist zwar der Hoster aber netcup hat keine Möglichkeit, auf diese Daten zuzugreifen.

    Läuft die Webseite bzw. der Mailer über Netcup-Produkte? Falls ja, so hat Netcup meines Erachtens nach tatsächlich die Möglichkeit (oder sogar Notwendigkeit) auf diese Daten zuzugreifen.

    Diese MB/s erreichend sie allerdings bei weitem nicht bei einer Blocksize von 4k. (Deshalb schreiben sie diese ja an dieser Stelle auch nicht dazu ;))

    Bei 4k Blocksize - und den Parametern, die auch yabs.sh verwendet - habe ich dort ca 250 MB/s total

    Was aber natürlich auch völlig OK ist und den angegebenen 50.000 IOPS tatsächlich entspricht.

    Wichtig ist, das man die auch konstant hat.

    Alles gute Punkte. Von 50k IOPS kann ich bisher (abgesehen von eigenem Blech) nur träumen.

    Es gibt ja auch Anbieter von KVM-virtualisierten Servern, die mit dedizierten Ressourcen werben ("Garantierte Festplattenleistung", "Beeinträchtigungen durch Nachbarserver gehören der Vergangenheit an")


    Ich habe mir dort mal einen Server gegönnt und tatsächlich ist die SSD-Performance dort durchgängig konstant gut, ohne punktuelle Einbrüche. Disk-Latenzen praktisch nicht vorhanden.


    Nachteil: Die SSDs sind deutlich kleiner als hier bei netcup, bei vergleichbaren Servern.

    > Die angegebenen Messungen sind Minimalwerte, die unsere Server mindestens erreichen.
    > Sequenzielle Lesegeschwindigkeit: 5000 MB/s

    > Sequenzielle Schreibgeschwindigkeit: 2000 MB/s
    >
    Random Read / Write (4K Blocksize): 50.000 IOPS (50% Read / 50% Write - gleichzeitig)


    Nicht schlecht :o

    Da hast du mich dann missverstanden. Ich sage nicht, dass es keine absolute Sicherheit erzeugt, sondern dass es absolut keine Sicherheit erzeugt und sinnfrei ist ;D

    Ich bleibe dabei: Ein verschlüsseltes Systemvolume bringt (zumindest eine geringfügig) höhere Sicherheit als gar keine Verschlüsselung. In meinem Bekanntenkreis sind viele Menschen, die grundsätzlich ihre Linux-Systeme mit LUKS verschlüsseln. In einem weiteren Kommentar hier über mir wurde ja schon aufgezeigt, dass man so die Verantwortung vom Provider zumindest etwas wegnehmen kann.

    Daher ja auch meine Frage, was genau Sinn und Zweck der Verschlüsselung sein soll, denn es gibt ja im Grunde nur 2 Szenarien.

    Einmal ein Angriff von draußen, wo die Verschlüsselung nichts bringt weil der Angreifer bei Erfolg ja dann auf das entschlüsselte System zugreifen würde und

    zum anderen ein Zugriff aus dem Rechenzentrum direkt, also physisch.

    Hier mach ich dann anstelle des Festplattendumps halt einfach noch ein RAM Dump und die Sache hat sich für dich erledigt mit der Verschlüsselung.

    Im Grunde genommen das: Es macht mir praktisch (fast) keinen Mehraufwand, die Performance ist nahezu identisch und es macht es für potentielle Angreifer, die an ein Diskimage kommen, zumindest etwas schwieriger. Natürlich hast du Recht, dass es keine absolute Sicherheit erzeugt!


    Insofern bringt die Verschlüsselung eines nicht selbst gehosteten Servers keinerlei Sicherheitsrelevanten Vorteile.

    Ich frage noch einmal: Was ist für dich ein "selbst gehosteter Server"?

    Selbst bei der Passworteingabe via KVM Konsole könnte das Passwort schon im Klarttext abgegriffen werden unter Umständen [also vom Hoster].

    Das Volume wird (zumindest bei mir) über einen verschlüsselten SSH-Tunnel beim Booten freigeschaltet. Da ist mit "im Browser" oder "in der KVM Konsole" mitschneiden nicht viel.


    Den einzigen Vorteil den ich sehe, ist dass ein Mitarbeiter nicht ohne weiteres einfach mal durch die Daten schnüffeln kann, wobei auch das kein allzugroßes Problem darstellen würde wenn man einfach ein kurzes Abbild macht und die Keys ausliest...

    Na also, da ist er schon der (wenn auch geringe) Mehrwert an Sicherheit :).

    Ich kann solche Probleme bislang auch nicht nachvollziehen. Was ich aber festgestellt habe: Mit der Zeit nimmt die Performance der Massenspeicher ab, und eine Optimierung im SCP wirkt dann wunder. Vor allem, wenn man mal einen Snapshot erstellt hat.


    Ist euer Speicher im optimierten Zustand? Nicht zu voll, regelmäßig im SCP gewartet, keine Snapshots etc. abgelegt?

    Das habe ich bei mir (so ähnlich) auch festgestellt. Ich habe allerdings den Schluss daraus gezogen, dass die Hosts z. B. bei der BF-Aktion zu Beginn nicht sehr belastet sind und nach einigen Wochen/Monaten mehr genutzt werden -> Dadurch könnte die individuelle Performance ja auch sinken.


    Optimierung + Löschen von Snapshots + Umstellen zwischen SCSI und virtio hat bei mir keinen Unterschied gemacht.

    (Aber alle meine Server hatten zu Beginn eine sehr gute IO-Performance. Teilweise sogar über 100 MiB/s bei den ganz kleinen Kisten.)

    Also in der Liste sind alle deine Server verschlüsselt bis auf ein 5 Jahre alter VPS mit SAS Festplatten.

    Wenn du einen roten H Server mit SATA HDDs ins Rennen schickst wirste auch andere Ergebnisse erhalten.

    Ich habe die Messwerte ohne Verschlüsselung nicht in die Tabelle eingetragen, weil das nahezu keinen Unterschied gemacht hat (zumindest bei mir).


    Also auf meinem privaten Server haben meine VMs, die auf billigen SATA HDDs liegen, >70 MiB/s erzielt. So ein Test auf einer H-VM mit SAS würde mich mal interessieren. Da muss ich schauen, ob ich mal dran komme.


    Die CPU mag zwar nicht ausgelastet sein durch die Verschlüsselung, die IOPS aber sehr wohl, gerade bei Servern mit einem einzelnen virtuellen Kern.

    Ich kann später mal den Test auf einen meiner VPS200 laufen lassen.

    An den Ergebnissen dieses Tests wäre ich sehr interessiert - bin mal gespannt, ob sich das bei dir ähnlich verhält wie bei meinen Tests.


    Naja, was genau willst du denn damit erreichen?

    Die Verschlüsselung zieht ja nur wenn der Server ausgeschaltet ist.

    Sobald der Server läuft und das entsprechende Passwort eingegeben wurde liegen die Keys im RAM und können von jedem der physischen Zugriff auf den Server hat ausgelesen werden, insofern bietet es keinerlei Sicherheiten, sondern nur Performance Einbußungen - denn einen Server habe ich ja i.d.R. damit er 24/7 läuft.

    Die Verschlüsselung bringt auch etwas, wenn jemand nicht ohne Weiteres auf den RAM zugreifen kann. Mir ist bewusst, dass es technisch möglich ist, den Key aus dem RAM auszulesen - in der Praxis dürfte das aber **deutlich** komplizierter sein als einfach direkt auf die (nicht verschlüsselte) Platte zuzugreifen oder ein Image/Dump davon zu ziehen.

    Also wenn deine Server in der Liste drin sind, sind es ja einige kleine VPS, wie VPS200 BF für unter 2€/Monat.

    Hauptsächlich, aber nicht nur. Gibt auch "größere" Server (auch Root Server) - diese haben aber teilweise bessere Ergebnisse geliefert.


    Dazu kommt dass du sämtliche Festplatten verschlüsselst, was sich gerade bei den kleinen VPS logischerweise in den IOPS widerspiegelt.

    Außerdem ist es im übrigen komplett sinnfrei einen nicht selbst gehosteten Server zu verschlüsseln, das nur so nebenbei.


    Wie also soll ein VPS200 G8 mit einem Kern IOPS liefern wenn die Daten zusätzlich verschlüsselt werden sollen?

    Auch das ist nicht bei allen meinen Servern so. Ich habe durchaus auch Messungen ohne Verschlüsselung laufen lassen, das hat nahezu keinen Unterschied gemacht, da die CPU nicht mal ansatzweise ausgelastet wird durch die Verschlüsselung. Man sieht in der Tabelle ja auch einen zugegeben etwas älteren VPS mit einer meiner Messungen ohne LUKS mit weniger als 1 MiB/s lesen und schreiben; außerdem gibt es von vielen anderen Forenmitgliedern Messwerte in der Tabelle mit ähnlichen Ergebnissen.

    Warum sollte es komplett sinnfrei sein einen "nicht selbst gehosteten" Server zu verschlüsseln? (Was meinst du im Übrigen mit "nicht selbst gehostet"?)

    Ja, interessante Liste.

    Aber hier ist es halt wiederum ähnlich.

    Wer weiß schon unter welchen Bedingungen die Tests gelaufen sind, sprich ob der Server leer war, ob viel gelaufen ist etc.

    Für tatsächliche vergleichbare Daten reicht so eine Liste nicht wirklich aus wo dann auch noch bei den Kommentaren angegeben wurde welche Änderungen vorgenommen wurden [sind also nicht mal die gleichen Tests durchgeführt worden größtenteils]

    Trotz dessen, dass teilweise unterschiedliche Tests gelaufen sind auf vielleicht teilweise ausgelasteten Servern, sind die Ergebnisse am unteren Ende doch relativ klar. Ich selbst habe virtuelle Server am Laufen, die nicht mal 20 MiB/s lesen/schreiben schaffen - egal zu welcher Zeit ich teste und natürlich komplett "leer". Das spiegelt sich bei vielen Messergebnissen in der Tabelle wieder.

    Bei Netcup bin ich ebenfalls schon seit Jahren mit verschiedenen Servern und hatte keinerlei Probleme bis jetzt - ein einziger Beitrag eines Users von dem ich weder weiß was er macht und ob er sich auskennt ist hier ehrlich gesagt keine Referenz für mich - wer weiß schon woran es in der Realität dann wirklich scheitert, erfahrungsgemäß sitzt das Problem oftmals vorm Rechner und nicht im Rechner, auch bei mir selbst beobachte ich das von Zeit zu Zeit -.-

    Du kannst dich ja mal bei den gesammelten Messwerten umschauen: https://docs.google.com/spread…8e0wVzFGSPh3iE/edit#gid=0

    Die geringen IO-Werte bzw. Einbrüche kann ich auch nachvollziehen. Diese spiegeln sich auch in meinen fio Messwerten (in dem geteilten Google Doc aus dem Forum hier) wieder.