Nach Erstellung & Export eines Snapshots lassen sich diese ja auch vom "FTP-Server" (der auch SFTP kann) herunterladen. Meine Erfahrungen damit sind allerdings eher so mäßig - gerade bei großen Images. Heute habe ich wieder so einen Fall - ich versuche seit heute mittag ca. 500 GB herunterzuladen.
Beim Download via FTP (ncftpget -P 21 -v -u XXXXXX 46.38.225.190 . /image/XXXX_vda_snapshot.qcow2) komme ich nur auf ~ 9 MB/s - hab ich deshalb auch wieder abgebrochen und per SFTP versucht.
Beim Export über scp lande ich wiederholt bei folgendem Problem:
scp -P 2222 XXXXXX@46.38.225.190:/image/XXXX_vda_snapshot.qcow2 .
XXXXXX@46.38.225.190's password:
XXXX_vda_snapshot.qcow2 41% 156GB 45.9MB/s 1:21:48 ETA
Received disconnect from 46.38.225.190 port 2222:11: data stalled timeout reached
Disconnected from 46.38.225.190 port 2222
lost connection
Wenn ich die Verbindung wieder aufnehmen könnte wäre das halb so schlimm - leider kann das scp (meines Wissens) nicht und ich muss immer wieder von vorne beginnen.
Das Ziel (also von wo aus ich die Befehle ausführe) ist ein Storage VPS bei einem anderen Anbieter, auf welchen ich auch Backups mache - da sind bislang keine Verbindungsprobleme aufgetreten.
Wie sind da so eure Erfahrungen? Wie ladet ihr große Dateien vom "FTP-Server" bei netcup? Wie habt ihr die höchsten Übertragungsraten erreicht?
Freue mich auf eure Tipps!
Viele Grüße
Tobi