Beiträge von querschlaeger

    Es soll ja tatsächlich eine leistungsfähigere CPU (samt drumrum) drinstecken.


    Ich habe leider noch keine Single Core Benchmark für den E5-2680 v4 gefunden, aber der ältere E5-2660 v3 in den G6 netcup Root-Servern taktet mit 200 MHz mehr. Ein Multicorebenchmark ist hier ja relativ sinnfrei, da man bei beiden ja nur 2 Kerne bekommt (der v4 hat 2 Kerne mehr und könnte daher auch bei allgemeinen Benchmarkwerten wie z.B. von cpubenchmark.net höher liegen).


    Aber daran will ich mich auch nicht festhalten. In meiner Umgebung wird nicht ständig an der load-Grenze gekratzt. :) IMO sind beide Server für ihre Zeit der Produktion/Verwendung sicher preislich und leistungsmäßig ähnlich aufgestellt.


    Daher finde ich 4 EUR mehr für nur 2 GB RAM plus die Leistungsverschlechterung mit der SSD eine zu hohe Preissteigerung.

    Root-Server M SSD v6 vs. RS 2000 SSD G7


    Hm, 2 GB mehr RAM, aber nur noch halb so großer Festspeicher. Und das für 4 EUR zusätzlich... Ist der RAM wirklich so teuer, das nicht einmal ein sehr viel kleiner SSD-Speicher den Preis kompensieren kann?!
    (CPU lasse ich jetzt mal außen vor, neuere Server haben halt neuere Generationen an Hardware, aber die sollten dann im jeweils gleichen Preisrahmen für ihre Zeit liegen)

    Nutzt jemand den Storagespace für Backups?

    Ich kann mich mit Backups nicht anfreunden, wenn der zu sichernde Host die Verbindung zum Backupsystem aufbaut und die Daten schiebt.


    Dies bedeutet, dass der Host selbst die Zugangsmöglichkeit (sei es Key oder Passwort oder allgemein keine Zugangsdaten benötigt, weil er auf andere Art im Backupsystem als vertrauenswürdig hinterlegt ist) vorliegen hat. Hier sehe ich das Problem, wenn der Host kompromittiert wurde. Ist das geschehen, besteht dann immer die Möglichkeit, dass auch gleich alle Backups kompromittiert (oder gelöscht) werden.


    Ich nutzte für Backups eine bei mir laufende VM, welche sich regelmäßig zum Host verbindet und die Daten holt. Das habe ich so verfeinert, dass ich per Einzeiler (also z.B. ./create_dev.sh 2016-03-16 - wenn ich den Datenstand von vor 2 Tagen brauche) aus den Backups auch einfach eine lokale Entwicklungs- oder Testumgebung erstellen kann.


    Hat einfach den Vorteil, dass die Backups bei mir sind (nennt mich paranoid, aber schon morgen kann [HOSTER HIER EINSETZEN] weg sein oder mir jeglichen Zugang verweigern oder oder oder...), ich bei Bedarf damit arbeiten kann und bei Kompromittierung des Hosts keiner an die Backups kommt.

    Die Stärke der Verschlüsselung ist unabhängig von der Zertifizierungsstelle. Die Konfigurierst du über deinen Webserver (bzw. anderen Dienst, welcher verschlüsselt übertragen soll).


    "Comodo, Kaspersky" etc. stellen nur sicher, dass die Browser/Mailclients u.s.w. das Zertifikat ohne Murren akzeptieren. Das eine hat mit dem anderen im Grunde nichts zu tun.

    Ich sehe den Mehrwert nicht, da eine Verbindung mit FTP über TLS problemlos mit z.B. FileZilla oder WinSCP (dort natürlich der FTP-Modus) funktioniert (ohne irgendetwas bei Routern einstellen zu müssen, sei es Speedport, Fritzbox, dd-wrt oder pfSense).


    Viel mehr würde ich mir einen direkten Export auf den Backupspace wünschen... :whistling:

    Hallo,


    ich habe einen root-Server L SSD und wollte eigentlich meinen alten Root-Server XL v2 damit ersetzen. Nun teste ich verschiedene System und säubere die vda immer mal zwischendurch mit dd (dd if=/dev/zero of=/dev/vda bs=4k).


    Am Anfang war ich begeistert, dass dies sehr schnell mit ca. 900 MB/s erledigt war. Leider ging die Leistung die letzten 2 Wochen immer mehr in den "Keller" (ist auch nicht abhängig von der Tageszeit). Momentan liegt der Wert nur noch bei 400 MB/s (für ein Raid 10 aus SSDs doch schon etwas langsamer) und liegt somit sogar unter den 600 MB/s, welcher der Root-Server XL v2 mit Raid 50 SAS nahezu konstant schafft. Das enttäuscht mich doch schon etwas.


    Kann es sein, dass hier ein SSD Performace Problem vorliegt? SSDs können ja, wenn sie voller werden immer langsamer werden. Evtl. wird auch kein TRIM am Host bzw. Raid-Controller durchgeführt?


    Ich habe jetzt Bedenken, dass die Leistung immer mehr abnimmt... :(

    Guten Tag,


    ich habe jemand einen netcup vServer für ein Newslettersystem (OpenEMM) empfohlen. Das ganze läuft schon, nur soll es zu netcup umgezogen werden. Jetzt wurde ich gefragt wie das mit Backups läuft...


    Momentan läuft das ganze System mit Proxmox und es wird alle paar Tage ein Snaphot erstellt, welcher aber auf einem separatem Storage liegt. Das ganze müsste also so ungefähr mit netcup umgesetzt werden.


    Kurz für alle die meinen, ein Snapshot wäre kein Backup: Anders wäre ein Ausfall nicht zu kompensieren. Eine reine Datensicherung und im Nofall -wiederherstellung ist viel zu aufwendig. Die ganze OpenEMM-VM (CentOS) wurde stark modifiziert (Mailserver läuft da auch drauf), Newsletter (u.a. bezahlte) gehen an tausende Leute und mehrmals am Tag werden Sondernewsletter versendet. Wenn dann erst das ganze System neu aufgesetzt und modifiziert werden müsste und die Daten reinkopiert werden (die Datenbank ist mehrere GB groß), wäre die Ausfallzeit viel zu hoch.


    Nun zu meinen eigentlichen Vorhaben: Alle 3 Tage soll ein Snapshot der VM erstellt werden und dann direkt auf den Backupstorage von netcup kopiert werden. Mir ich klar, dass ein Export nur auf den FTP geht. Die Kopie von FTP zu Backupstorage müsste ich vermutlich von außen anstoßen. Aber wie stoße ich den Snapshot samt Export zum FTP an? Über den VCP Webservice finde ich keine Möglichkeit. Oder übersehe ich etwas? Notfalls muss ich per cURL ins VCP und das anstoßen. Nur wie weiß ich, wann der Export fertig ist und ich dann von FTP zu Backupstorage kopieren kann?


    Und dann kommt noch eine weitere Frage: Können Snapshotexports automatisch jeden Monat gekauft werden? Müssten dann 10 Exports pro Monat sein (Backup alle 3 Tage). Wäre blöd, wenn die nur einzeln kaufbar wären.


    Vielen Dank schon einmal!


    P.S.: Ich gehe in dem ganzen Szenario davon aus, dann man einen exportieren Snapshot einfach in einem anderen netcup Root Server wieder importieren kann (Festplattengröße vorausgesetzt). Damit liege ich doch richtig, oder?

    Ok, gut zu wissen.


    Dann sollte nur noch der Text im VCP angepasst werden:


    virtio (schneller)
    e1000 (stabiler)
    rtl8139


    Oder komplett die Angabe in Klammern weg (dann kann sich jeder selbst informieren). Auf jeden Fall das "empfohlen" bei virtio weg. Wenn es unter gewissen Umständen zu Paketverlusten führen kann und deshalb von netcup nicht (mehr) standardmäßig eingestellt wird, sollte es auch nicht unbedingt empfohlen werden. ;)

    Hallo,


    hat es einen bestimmten Grund, dass bei einem neu bestellten Root Server L der e1000-Treiber standardmäßig ausgewählt ist? virtio sollte doch performanter sein, oder? War früher glaube ich auch standardmäßig ausgewählt. Ich frag mich nur, was jetzt sinnvoller ist: e1000 oder virtio (bei einem Linuxgast)?


    Bei virtio steht "empfohlen", aber der e1000 ist Standard? Verkehrte Welt...

    Hallo,


    wenn du sowieso die gegenwärtige Installation verwerfen willst und Linux frisch installieren möchtest, schalten den Server doch einfach über das VCP "von außen" aus. Sauber mit dem Button "'ACPI Shutdown" und wenn das nicht funktioniert mit "poweroff". Danach kannst du eine CD über das VCP einlegen und selbst installieren oder ein vorkonfiguriertes Image verwenden.


    Auf diese Weise musst du überhaupt nicht vorher per SSH oder VNC in den Server rein.