Posts by querschlaeger

    Nutzt jemand den Storagespace für Backups?

    Ich kann mich mit Backups nicht anfreunden, wenn der zu sichernde Host die Verbindung zum Backupsystem aufbaut und die Daten schiebt.


    Dies bedeutet, dass der Host selbst die Zugangsmöglichkeit (sei es Key oder Passwort oder allgemein keine Zugangsdaten benötigt, weil er auf andere Art im Backupsystem als vertrauenswürdig hinterlegt ist) vorliegen hat. Hier sehe ich das Problem, wenn der Host kompromittiert wurde. Ist das geschehen, besteht dann immer die Möglichkeit, dass auch gleich alle Backups kompromittiert (oder gelöscht) werden.


    Ich nutzte für Backups eine bei mir laufende VM, welche sich regelmäßig zum Host verbindet und die Daten holt. Das habe ich so verfeinert, dass ich per Einzeiler (also z.B. ./create_dev.sh 2016-03-16 - wenn ich den Datenstand von vor 2 Tagen brauche) aus den Backups auch einfach eine lokale Entwicklungs- oder Testumgebung erstellen kann.


    Hat einfach den Vorteil, dass die Backups bei mir sind (nennt mich paranoid, aber schon morgen kann [HOSTER HIER EINSETZEN] weg sein oder mir jeglichen Zugang verweigern oder oder oder...), ich bei Bedarf damit arbeiten kann und bei Kompromittierung des Hosts keiner an die Backups kommt.

    Die Stärke der Verschlüsselung ist unabhängig von der Zertifizierungsstelle. Die Konfigurierst du über deinen Webserver (bzw. anderen Dienst, welcher verschlüsselt übertragen soll).


    "Comodo, Kaspersky" etc. stellen nur sicher, dass die Browser/Mailclients u.s.w. das Zertifikat ohne Murren akzeptieren. Das eine hat mit dem anderen im Grunde nichts zu tun.

    Ich sehe den Mehrwert nicht, da eine Verbindung mit FTP über TLS problemlos mit z.B. FileZilla oder WinSCP (dort natürlich der FTP-Modus) funktioniert (ohne irgendetwas bei Routern einstellen zu müssen, sei es Speedport, Fritzbox, dd-wrt oder pfSense).


    Viel mehr würde ich mir einen direkten Export auf den Backupspace wünschen... :whistling:

    Hallo,


    ich habe einen root-Server L SSD und wollte eigentlich meinen alten Root-Server XL v2 damit ersetzen. Nun teste ich verschiedene System und säubere die vda immer mal zwischendurch mit dd (dd if=/dev/zero of=/dev/vda bs=4k).


    Am Anfang war ich begeistert, dass dies sehr schnell mit ca. 900 MB/s erledigt war. Leider ging die Leistung die letzten 2 Wochen immer mehr in den "Keller" (ist auch nicht abhängig von der Tageszeit). Momentan liegt der Wert nur noch bei 400 MB/s (für ein Raid 10 aus SSDs doch schon etwas langsamer) und liegt somit sogar unter den 600 MB/s, welcher der Root-Server XL v2 mit Raid 50 SAS nahezu konstant schafft. Das enttäuscht mich doch schon etwas.


    Kann es sein, dass hier ein SSD Performace Problem vorliegt? SSDs können ja, wenn sie voller werden immer langsamer werden. Evtl. wird auch kein TRIM am Host bzw. Raid-Controller durchgeführt?


    Ich habe jetzt Bedenken, dass die Leistung immer mehr abnimmt... :(

    Guten Tag,


    ich habe jemand einen netcup vServer für ein Newslettersystem (OpenEMM) empfohlen. Das ganze läuft schon, nur soll es zu netcup umgezogen werden. Jetzt wurde ich gefragt wie das mit Backups läuft...


    Momentan läuft das ganze System mit Proxmox und es wird alle paar Tage ein Snaphot erstellt, welcher aber auf einem separatem Storage liegt. Das ganze müsste also so ungefähr mit netcup umgesetzt werden.


    Kurz für alle die meinen, ein Snapshot wäre kein Backup: Anders wäre ein Ausfall nicht zu kompensieren. Eine reine Datensicherung und im Nofall -wiederherstellung ist viel zu aufwendig. Die ganze OpenEMM-VM (CentOS) wurde stark modifiziert (Mailserver läuft da auch drauf), Newsletter (u.a. bezahlte) gehen an tausende Leute und mehrmals am Tag werden Sondernewsletter versendet. Wenn dann erst das ganze System neu aufgesetzt und modifiziert werden müsste und die Daten reinkopiert werden (die Datenbank ist mehrere GB groß), wäre die Ausfallzeit viel zu hoch.


    Nun zu meinen eigentlichen Vorhaben: Alle 3 Tage soll ein Snapshot der VM erstellt werden und dann direkt auf den Backupstorage von netcup kopiert werden. Mir ich klar, dass ein Export nur auf den FTP geht. Die Kopie von FTP zu Backupstorage müsste ich vermutlich von außen anstoßen. Aber wie stoße ich den Snapshot samt Export zum FTP an? Über den VCP Webservice finde ich keine Möglichkeit. Oder übersehe ich etwas? Notfalls muss ich per cURL ins VCP und das anstoßen. Nur wie weiß ich, wann der Export fertig ist und ich dann von FTP zu Backupstorage kopieren kann?


    Und dann kommt noch eine weitere Frage: Können Snapshotexports automatisch jeden Monat gekauft werden? Müssten dann 10 Exports pro Monat sein (Backup alle 3 Tage). Wäre blöd, wenn die nur einzeln kaufbar wären.


    Vielen Dank schon einmal!


    P.S.: Ich gehe in dem ganzen Szenario davon aus, dann man einen exportieren Snapshot einfach in einem anderen netcup Root Server wieder importieren kann (Festplattengröße vorausgesetzt). Damit liege ich doch richtig, oder?

    Ok, gut zu wissen.


    Dann sollte nur noch der Text im VCP angepasst werden:


    virtio (schneller)
    e1000 (stabiler)
    rtl8139


    Oder komplett die Angabe in Klammern weg (dann kann sich jeder selbst informieren). Auf jeden Fall das "empfohlen" bei virtio weg. Wenn es unter gewissen Umständen zu Paketverlusten führen kann und deshalb von netcup nicht (mehr) standardmäßig eingestellt wird, sollte es auch nicht unbedingt empfohlen werden. ;)

    Hallo,


    hat es einen bestimmten Grund, dass bei einem neu bestellten Root Server L der e1000-Treiber standardmäßig ausgewählt ist? virtio sollte doch performanter sein, oder? War früher glaube ich auch standardmäßig ausgewählt. Ich frag mich nur, was jetzt sinnvoller ist: e1000 oder virtio (bei einem Linuxgast)?


    Bei virtio steht "empfohlen", aber der e1000 ist Standard? Verkehrte Welt...

    Hallo,


    wenn du sowieso die gegenwärtige Installation verwerfen willst und Linux frisch installieren möchtest, schalten den Server doch einfach über das VCP "von außen" aus. Sauber mit dem Button "'ACPI Shutdown" und wenn das nicht funktioniert mit "poweroff". Danach kannst du eine CD über das VCP einlegen und selbst installieren oder ein vorkonfiguriertes Image verwenden.


    Auf diese Weise musst du überhaupt nicht vorher per SSH oder VNC in den Server rein.

    An den 500 MB/s sieht man gut dass es sich um eine SSD handelt.

    Komisch, den selben Wert (+/- 10% - je nach Uhrzeit und vermutlich Zugriffen auf die Hostplatten) habe ich aber auch mit einem Root-Server XL v2...
    Das komplette säubern der Platte (dd if=/dev/zero of=/dev/vda bs=4k) von 1000 GB dauert in der Regel ca. 1800 Sekunden.

    Hallo,

    das ist eine frage, die dir wohl kaum ein kunde beantworten kann.

    ich habe dies schon durch und kann dir das aus Kundesicht beantworten. :P


    Ich habe einen KVM-Server mit zusätzlicher IP gehabt und den gekündigt (geht ja monatlich). Die IP wollte ich nicht verlieren und habe mich an den Support gewendet, welcher mir versicherte, dass ich das Produkt weiter behalten kann, aber die IP-Adresse an sich nicht (sprich: Wenn ich das Produkt an einen anderen Server kopple, ändert sich die IP-Adresse). Damit konnte ich leben und so ist es auch gekommen.


    Beim Kündigungsschreiben des Servers habe ich mit angegeben, dass das Produkt "123.123.123.123 - zusätzliche IPv4 (Feature)" auf den Server mit der Accountbezeichnung "v123 - Server XYZ" übertragen werden soll und das mir bewusst ist, dass sich dadurch die IP-Adresse ändern kann.


    Alles andere wäre für mich auch nicht tragbar gewesen, schließlich ist die Laufzeit der zusätzlichen IP-Adresse 1 Jahr, welche man im Voraus bezahlt. Kündigt man einen Server nach einem halben Jahr und holt sich einen anderen für diesen, wäre es unsinnig, die schon bezahlte IP (bzw. das Produkt; die IP ändert sich ja) nicht mitnehmen zu dürfen.