Image als gzip hochladen

  • Hallo,


    ich es möglich ein Image (qcow2) gepackt (als gzip z.B.) hochzuladen und dann auf dem Server zu entpacken.

    Ich dachte da an das Rettungssystem, welches über gzip verfügt. Aber wo finde ich im Rettungssystem die images?


    Das Image ist sehr groß und ich dachte auf diese Weise Zeit zu sparen.


    Danke im voraus!

  • Danke für den Link. Das ist der Weg den ich gehen möchte. Allerdings möchte ich den Uploud beschleunigen. Kompriemiert ist das gleiche Image nur 2,5Gb groß statt 7.5Gb.

  • Auf den speziellen FTP-Server kannst du das Image nur unkomprimiert hochladen, da das System ansonsten das zu installierende Image nicht erkennt.


    Wenn du noch einen zweiten Server hast, so könntest du dieses Image erst einmal auf den zweiten Server komprimiert zwischenparken und von dem aus dann das Imges unkomprimiert auf den speziellen FTP-Server hochladen.

  • Rettungssystem + curlftpfs? ;)


    Ungetestet, sollte aber klappen, wenn Du es dann z.B. über SSH mit einer gzip Pipe in den gemounteten Ordner hochlädst. Quasi: gzip < /local/file.img | ssh rettungssystem -- bash -c "gunzip > /curlftpfs/remote/file.img" # UNGETESTET! NUR SCHNELL AM HANDY GETIPPT!


    Oder Du lädst es direkt komprimiert hoch und dekomprimierst es übers Rettungssystem. Ebenfalls wieder mit curlftpfs.

    "Wer nur noch Enten sieht, hat die Kontrolle über seine Server verloren." (Netzentenfund)

  • Hallo killer)

    Rettungssystem + curlftpfs? ;)


    Ungetestet, sollte aber klappen, wenn Du es dann z.B. über SSH mit einer gzip Pipe in den gemounteten Ordner hochlädst. Quasi: gzip < /local/file.img | ssh rettungssystem -- bash -c "gunzip > /curlftpfs/remote/file.img" # UNGETESTET! NUR SCHNELL AM HANDY GETIPPT!


    Oder Du lädst es direkt komprimiert hoch und dekomprimierst es übers Rettungssystem. Ebenfalls wieder mit curlftpfs.


    was ist das?


    /curlftpfs/remote/file.img


    Den Pfad gibt es im Rettungssystem nicht. Dein Vorschlagt klingt gut. Aber kannst du ihn bitte noch genauer erläutern?


    Viiiieelen Dank!


    PS: Über FTP krieg ich die 7Gb einfach nicht hochgeladen. Nach 300-400mb bricht der Download ab. Filezilla sagt der Download ist erfolgreich fertig.

  • PS: Über FTP krieg ich die 7Gb einfach nicht hochgeladen. Nach 300-400mb bricht der Download ab. Filezilla sagt der Download ist erfolgreich fertig.

    Zu Anfang wird eine virtuelle Platte mit der Endung qcow2 nicht gleich auf das Maximum groß, sondern nimmt nur die volle Größe an, wenn man sie komplett mit Daten befüllt. Von daher kann es auch sein, dass sie derzeit auch nicht größer ist als 400 MB.


    Du kannst auch nichts falsch machen, wenn du dann das hochgeladene Image mit nur 400 MB über das Webinterface https://www.customercontrolpanel.de/ auf deinem Server installieren läßt.

  • was ist das?


    /curlftpfs/remote/file.img


    Den Pfad gibt es im Rettungssystem nicht. Dein Vorschlagt klingt gut. Aber kannst du ihn bitte noch genauer erläutern?

    Eigentlicht ist das selbsterklärend. => https://wiki.archlinux.org/index.php/CurlFtpFS

    Die Idee ist, das Rettungssystem als Gateway zu nutzen, um es von dort aus entpackt auf den FTP-Server zu schieben. Dafür müsstest du aber mindestens wissen, wie man ein Dateisystem mountet. Direkt installieren kannst du so ein Image nicht ohne den Umweg über den Netcup FTP-Server und das CCP, da sich das Image ja außerhalb der VM befindet. Wenn deine Verbindung nicht wirklich lahm ist, ist es die Mühe nicht wert. Denn bis du dir da was zusammengebastelt hast, hast du auch locker 10 GiB hochgeladen. Wenn FileZilla Übertragungen abbricht, dann stell' mal in den Einstellungen bei Verbindung die Zeitüberschreitung ab, und setze bei FTP den Haken für Verbindungserhaltungsbefehle.

  • Zu Anfang wird eine virtuelle Platte mit der Endung qcow2 nicht gleich auf das Maximum groß, sondern nimmt nur die volle Größe an, wenn man sie komplett mit Daten befüllt. Von daher kann es auch sein, dass sie derzeit auch nicht größer ist als 400 MB.


    Du kannst auch nichts falsch machen, wenn du dann das hochgeladene Image mit nur 400 MB über das Webinterface https://www.customercontrolpanel.de/ auf deinem Server installieren läßt.

    Das habe ich bereits ausprobiert. Doch die Images sind tatsächlich unvollständig und das CCP kann sie nicht aufspielen.


    Brrrrr.... bin grad ziemlich ratlos.

  • Eigentlicht ist das selbsterklärend. => https://wiki.archlinux.org/index.php/CurlFtpFS

    Die Idee ist, das Rettungssystem als Gateway zu nutzen, um es von dort aus entpackt auf den FTP-Server zu schieben. Dafür müsstest du aber mindestens wissen, wie man ein Dateisystem mountet. Direkt installieren kannst du so ein Image nicht ohne den Umweg über den Netcup FTP-Server und das CCP, da sich das Image ja außerhalb der VM befindet. Wenn deine Verbindung nicht wirklich lahm ist, ist es die Mühe nicht wert. Denn bis du dir da was zusammengebastelt hast, hast du auch locker 10 GiB hochgeladen. Wenn FileZilla Übertragungen abbricht, dann stell' mal in den Einstellungen bei Verbindung die Zeitüberschreitung ab, und setze bei FTP den Haken für Verbindungserhaltungsbefehle.

    Verstehe. Aber wahrscheinlich nicht ganz.


    Wenn das Rettungssystem nur als Gateway benutzt wird, warum muss es dann das Rettungssystem sein, und nicht einfach der normale Server?


    Klingt in der Tat recht kompliziert. Aber Filezilla will einfach nicht.( Daher werd ich wohl hier basteln müssen.


    (Oder ganz auf das Image verzichten... aber dann ist es ja so, als on das Snapshotsystem nicht funktioniert. Bin ich der einzige der keine grossen Datein hochladen kann?)

  • Wenn das Rettungssystem nur als Gateway benutzt wird, warum muss es dann das Rettungssystem sein, und nicht einfach der normale Server?

    Muss es eh nicht. Aber beim Rettungssystem ist es egal, was da auf der HDD gerade installiert oder eben nicht installiert ist.

    "Wer nur noch Enten sieht, hat die Kontrolle über seine Server verloren." (Netzentenfund)

  • Ich habe das Problem gelöst. Nicht ganz perfekt, aber vielleicht hilft es jemanden weiter:


    • gzip image.qcow2 packen, ergibt: imgae.qcow2.gz
    • per ssh auf Server hochladen (Rettungssystem oder normaler Server). Auf Windows ganz einfach mit WinSCP.
    • Per curlftpfs den das image-System einbinden. Geht ganz einfach: mkdir ~/ftpsudo curlftpfs 0.0.0.0 ~/ftp -o ssl,no_verify_peer,no_verify_hostname,user=username:passwd0.0.0.0. username:passwd mit Image-Server IP Adresse, username und passwd
    • Das System ist eingebunden. Jetzt kann man imgae.qcow2.gz entpacken und einfach mit cp imgage.qcow2.gz ~/ftp/image auf den Server ablegen.


    Noch besser wäre es das gepackte Image beim entpacken auf das Image-System abzulegen. Hab ich aber hingekriegt... vielleicht kann ein Experte hier weiterhelfen?


    Danke an alle.)

  • Ich habe das Problem gelöst. Nicht ganz perfekt, aber vielleicht hilft es jemanden weiter:

    Das ist genau das, was KB19 gemeint hat. Er hat es nur nicht so ausführlich beschrieben, sondern in einen einzelnen Befehl gepackt. Auf diese Weise kopierst du zwar immernoch ein unkomprimiertes Image auf den FTP-Server, nur eben von innerhalb des Rechenzentrums, was der ganzen Sache ein bisschen mehr Speed verleiht. Die meisten Linux-Programme bieten irgendeine Möglichkeit an, Daten aus der Standardeingabe zu lesen oder auf die Standardausgabe zu schreiben, und diese Streams kann man mittels der Shell-Operatoren <, >, und | umleiten, was sehr mächtige und komplexe Befehls-Kombinationen ermöglicht.


    Wenn es allerdings nur um die Verbindungsabbrüche geht, hätte es evtl. auch einfach ein anderer FTP-Client getan, b.z.w. hättest du curlftpfs natürlich auch von Zuhause aus verwenden können.