Image als gzip hochladen

  • Hallo,


    ich es möglich ein Image (qcow2) gepackt (als gzip z.B.) hochzuladen und dann auf dem Server zu entpacken.

    Ich dachte da an das Rettungssystem, welches über gzip verfügt. Aber wo finde ich im Rettungssystem die images?


    Das Image ist sehr groß und ich dachte auf diese Weise Zeit zu sparen.


    Danke im voraus!

  • Auf den speziellen FTP-Server kannst du das Image nur unkomprimiert hochladen, da das System ansonsten das zu installierende Image nicht erkennt.


    Wenn du noch einen zweiten Server hast, so könntest du dieses Image erst einmal auf den zweiten Server komprimiert zwischenparken und von dem aus dann das Imges unkomprimiert auf den speziellen FTP-Server hochladen.

  • Rettungssystem + curlftpfs? ;-)


    Ungetestet, sollte aber klappen, wenn Du es dann z.B. über SSH mit einer gzip Pipe in den gemounteten Ordner hochlädst. Quasi: gzip < /local/file.img | ssh rettungssystem -- bash -c "gunzip > /curlftpfs/remote/file.img" # UNGETESTET! NUR SCHNELL AM HANDY GETIPPT!


    Oder Du lädst es direkt komprimiert hoch und dekomprimierst es übers Rettungssystem. Ebenfalls wieder mit curlftpfs.

  • Hallo killer)

    Rettungssystem + curlftpfs? ;-)


    Ungetestet, sollte aber klappen, wenn Du es dann z.B. über SSH mit einer gzip Pipe in den gemounteten Ordner hochlädst. Quasi: gzip < /local/file.img | ssh rettungssystem -- bash -c "gunzip > /curlftpfs/remote/file.img" # UNGETESTET! NUR SCHNELL AM HANDY GETIPPT!


    Oder Du lädst es direkt komprimiert hoch und dekomprimierst es übers Rettungssystem. Ebenfalls wieder mit curlftpfs.


    was ist das?


    /curlftpfs/remote/file.img


    Den Pfad gibt es im Rettungssystem nicht. Dein Vorschlagt klingt gut. Aber kannst du ihn bitte noch genauer erläutern?


    Viiiieelen Dank!


    PS: Über FTP krieg ich die 7Gb einfach nicht hochgeladen. Nach 300-400mb bricht der Download ab. Filezilla sagt der Download ist erfolgreich fertig.

  • PS: Über FTP krieg ich die 7Gb einfach nicht hochgeladen. Nach 300-400mb bricht der Download ab. Filezilla sagt der Download ist erfolgreich fertig.

    Zu Anfang wird eine virtuelle Platte mit der Endung qcow2 nicht gleich auf das Maximum groß, sondern nimmt nur die volle Größe an, wenn man sie komplett mit Daten befüllt. Von daher kann es auch sein, dass sie derzeit auch nicht größer ist als 400 MB.


    Du kannst auch nichts falsch machen, wenn du dann das hochgeladene Image mit nur 400 MB über das Webinterface https://www.customercontrolpanel.de/ auf deinem Server installieren läßt.

  • was ist das?


    /curlftpfs/remote/file.img


    Den Pfad gibt es im Rettungssystem nicht. Dein Vorschlagt klingt gut. Aber kannst du ihn bitte noch genauer erläutern?

    Eigentlicht ist das selbsterklärend. => https://wiki.archlinux.org/index.php/CurlFtpFS

    Die Idee ist, das Rettungssystem als Gateway zu nutzen, um es von dort aus entpackt auf den FTP-Server zu schieben. Dafür müsstest du aber mindestens wissen, wie man ein Dateisystem mountet. Direkt installieren kannst du so ein Image nicht ohne den Umweg über den Netcup FTP-Server und das CCP, da sich das Image ja außerhalb der VM befindet. Wenn deine Verbindung nicht wirklich lahm ist, ist es die Mühe nicht wert. Denn bis du dir da was zusammengebastelt hast, hast du auch locker 10 GiB hochgeladen. Wenn FileZilla Übertragungen abbricht, dann stell' mal in den Einstellungen bei Verbindung die Zeitüberschreitung ab, und setze bei FTP den Haken für Verbindungserhaltungsbefehle.

  • Zu Anfang wird eine virtuelle Platte mit der Endung qcow2 nicht gleich auf das Maximum groß, sondern nimmt nur die volle Größe an, wenn man sie komplett mit Daten befüllt. Von daher kann es auch sein, dass sie derzeit auch nicht größer ist als 400 MB.


    Du kannst auch nichts falsch machen, wenn du dann das hochgeladene Image mit nur 400 MB über das Webinterface https://www.customercontrolpanel.de/ auf deinem Server installieren läßt.

    Das habe ich bereits ausprobiert. Doch die Images sind tatsächlich unvollständig und das CCP kann sie nicht aufspielen.


    Brrrrr.... bin grad ziemlich ratlos.

  • Eigentlicht ist das selbsterklärend. => https://wiki.archlinux.org/index.php/CurlFtpFS

    Die Idee ist, das Rettungssystem als Gateway zu nutzen, um es von dort aus entpackt auf den FTP-Server zu schieben. Dafür müsstest du aber mindestens wissen, wie man ein Dateisystem mountet. Direkt installieren kannst du so ein Image nicht ohne den Umweg über den Netcup FTP-Server und das CCP, da sich das Image ja außerhalb der VM befindet. Wenn deine Verbindung nicht wirklich lahm ist, ist es die Mühe nicht wert. Denn bis du dir da was zusammengebastelt hast, hast du auch locker 10 GiB hochgeladen. Wenn FileZilla Übertragungen abbricht, dann stell' mal in den Einstellungen bei Verbindung die Zeitüberschreitung ab, und setze bei FTP den Haken für Verbindungserhaltungsbefehle.

    Verstehe. Aber wahrscheinlich nicht ganz.


    Wenn das Rettungssystem nur als Gateway benutzt wird, warum muss es dann das Rettungssystem sein, und nicht einfach der normale Server?


    Klingt in der Tat recht kompliziert. Aber Filezilla will einfach nicht.( Daher werd ich wohl hier basteln müssen.


    (Oder ganz auf das Image verzichten... aber dann ist es ja so, als on das Snapshotsystem nicht funktioniert. Bin ich der einzige der keine grossen Datein hochladen kann?)

  • Ich habe das Problem gelöst. Nicht ganz perfekt, aber vielleicht hilft es jemanden weiter:


    • gzip image.qcow2 packen, ergibt: imgae.qcow2.gz
    • per ssh auf Server hochladen (Rettungssystem oder normaler Server). Auf Windows ganz einfach mit WinSCP.
    • Per curlftpfs den das image-System einbinden. Geht ganz einfach: mkdir ~/ftpsudo curlftpfs 0.0.0.0 ~/ftp -o ssl,no_verify_peer,no_verify_hostname,user=username:passwd0.0.0.0. username:passwd mit Image-Server IP Adresse, username und passwd
    • Das System ist eingebunden. Jetzt kann man imgae.qcow2.gz entpacken und einfach mit cp imgage.qcow2.gz ~/ftp/image auf den Server ablegen.


    Noch besser wäre es das gepackte Image beim entpacken auf das Image-System abzulegen. Hab ich aber hingekriegt... vielleicht kann ein Experte hier weiterhelfen?


    Danke an alle.)

  • Ich habe das Problem gelöst. Nicht ganz perfekt, aber vielleicht hilft es jemanden weiter:

    Das ist genau das, was killerbees19 gemeint hat. Er hat es nur nicht so ausführlich beschrieben, sondern in einen einzelnen Befehl gepackt. Auf diese Weise kopierst du zwar immernoch ein unkomprimiertes Image auf den FTP-Server, nur eben von innerhalb des Rechenzentrums, was der ganzen Sache ein bisschen mehr Speed verleiht. Die meisten Linux-Programme bieten irgendeine Möglichkeit an, Daten aus der Standardeingabe zu lesen oder auf die Standardausgabe zu schreiben, und diese Streams kann man mittels der Shell-Operatoren <, >, und | umleiten, was sehr mächtige und komplexe Befehls-Kombinationen ermöglicht.


    Wenn es allerdings nur um die Verbindungsabbrüche geht, hätte es evtl. auch einfach ein anderer FTP-Client getan, b.z.w. hättest du curlftpfs natürlich auch von Zuhause aus verwenden können.