Noch als Nachtrag:
Sicherungs-Download schlägt fehl
- mlohr
- Thread is marked as Resolved.
-
-
Ich wollte auf Nummer Sicher gehen und habe Debian 10.0.1 DVD1 mit 4,3 GB genommen. Dann habe ich gemacht, was Du beschrieben hast. Ausgeloggt aber habe ich mich, bevor das Backup durch war. Nach dem Wiedereinloggen wird mir eine Datei von 4,47GB angeboten.
Der Download, den Firefox als „Fertig“ anzeigt, ist jedoch nur 1.0GB groß. Auf der Platte sind es 1.079.295.551 Bytes, was der Dateimanager unter Ubuntu als 1.1GB anzeigt.
Problem bestätigt: mit Firefox und Chromium.Magst du das bitte nochmal probieren, ohne dass zwischendrin ein Logout geschieht? Erfahrungsgemäß sind die Backups sehr schnell fertig... Danke!
-
Noch ein Hinweis: Ich habe jeweils immer ohne Passwortschutz ausgewählt.
-
Vergleichbare Probleme (abschneiden des Up- oder Downloads) scheint es zu geben, wenn php_max_filesize oder upload_filesize zu klein gesetzt sind. K.a., ob das hier von Relevanz ist.
Noch ein Hinweis: Ich habe jeweils immer ohne Passwortschutz ausgewählt.
Die Datei ist ohne Passwort offenbar noch etwas kleiner 1.079.098.943 Byte statt 1.079.295.551, der Abbruch erfolgt früher.
-
Das variiert bei mir sogar pro Download der selben Datei. Beim ersten Durchlauf die eine Größe, beim zweiten eine andere, beim dritten wieder eine andere... wirkt zufällig, aber immer zwischen 1,0 und 1,1 GB.
-
Wir haben genau das gleiche Problem. Netcup Webhosting. Ein Backup gemacht welches 2.33 GB hat, daraus brauchen wir jetzt bestimmte Dateien.
Firefox bricht genau nach 1GB an. Anscheinend ist das ein Problem mit der Übertragung des Webdownloads. Da hier Plesk drunter läuft scheint es schon bekannt zu sein.
https://talk.plesk.com/threads…ackup-backups-1-gb.65925/
Leider komme ich auch über den FTP nicht an die Backups ran, so das ich keine Möglichkeit hab an die Dateien aus dem Backup zu kommen.
Gibt es inzwischen eine Lösung?
-
Für mich leider nicht. Magst du vielleicht dem Support mal schreiben? Auch gerne auf den Thread hier beziehen und mitteilen, dass es anscheinend doch nicht nur einen Kunden betrifft. Bisher sagte Netcup mir immer "können wir nicht nachvollziehen" und damit was das Thema für die erledigt.
-
Soooo für alle die auch das Problem haben. Ich hab den Freedownload Manager mit Chrome Extension genommen, der hat sich den Link geschnappt und da ging das herunterladen der 2.3 GB mit konstanten 14 MB/sec sehr gut.
-
Moin,
ich habe aktuell eine sehr seltsame Erscheinung, die auch der Support nicht nachvollziehen kann. Ich habe im WCP über Konto -> Websites sichern ein vollständiges Backup meiner Webseiten erstellen lassen. Nach wenigen Minuten erscheint das im WCP als fertig mit einer angeblichen Dateigröße von 1,49GB. Etwa eine Stunde später bekomme ich dann endlich auch die angeforderte E-Mail, dass das Backup erfolgreich erstellt sei. Logge ich mich nun wieder im WCP ein und versuche das Backup herunterzuladen, bricht das nach etwa 1,1GB "ab" (Dadurch, dass der Server keinen Content-Length Header sendet, weiß mein Browser nicht, wie groß die Datei werden soll und beschwert sich auch nicht, wenn die TCP-Verbindung ausgeht). Die heruntergeladene Datei ist ein TAR-Archiv, tar xvf beschwert sich, dass ein Stück der Datei fehlt. Ich gehe also einfach mal davon aus, dass der Download konsequent fehlschlägt. Getestet habe ich das mit mehreren Browsern (Chrome, Firefox), verschiedenen Internetleitungen (privat, Firma, Uni) - jedes mal das selbe. Also habe ich den Support angeschrieben, dort sagt man mir, dass der Download kein Problem sei, die Datei 1,49GB groß und das entpacken des TARs funktioniert.
Irgendeine Idee, was ich jetzt bitteschön machen könnte?!
Viele Grüße
MatthiasHallo Matthias,
ich habe exakt das selbe Problem, und hatte deshalb auch schon mehrmaligen und längeren Kontakt mit dem netcup Support. Doch auch bei mir war schlussendlich die Aussage "Wir können das Problem nicht reproduzieren, es scheint an Ihnen zu liegen".
Ich habe den Webhosting 2000 Tarif, und meine Backups sind alle deutlich über 1GB groß.
Genau wie du, hatte ich auch verschiedene Browser, Betriebssysteme und Internet Zugänge ausprobiert - alles mit dem gleichen Ergebnis.
Zusammen mit dem Support hatten wir einen Test gemacht - der Support Mitarbeiter hat eine Backup Datei in ein Verzeichnis geschoben, auf das ich sowohl über den Plesk Filemanager als auch über FTP Zugriff habe. Das Ergebnis war, dass der Download per FTP problemlos funktioniert hat, jedoch über den Plesk Filemanager, genau wie über den Backup Manager bei etwa 1,0GB - 1,1GB abbricht.
Es sieht also so aus, als wenn der Download nur abbricht, wenn die Datei über PHP angefordert wird.
Soooo für alle die auch das Problem haben. Ich hab den Freedownload Manager mit Chrome Extension genommen, der hat sich den Link geschnappt und da ging das herunterladen der 2.3 GB mit konstanten 14 MB/sec sehr gut.
Ich habe das getestet, bei mir bricht der Download auch im Freedownload Manager nach etwa 1,0GB ab.
Hat mittlerweile jemand eine Lösung für dieses Problem?
-
Anscheinend nicht. Vielleicht den Support mal darauf hinweisen, dass verschiedene Kunden das durchaus reproduzieren können? Vielleicht reproduziert der Support einfach anders als die Kunden. Nur glaube ich nicht, dass inzwischen dann mehrere Leute zu blöd sind, die Dinge herunterzuladen - ich alleine vielleicht ja noch, aber ich bin ja nicht mehr alleine. Zumindest fühle ich mich so besser
-
Niemand ist so blöd, wie wir alle zusammen
-
Interessant das Ganze hier zu verfolgen. Stand eben vor der gleichen Situation.
Gibt es bereits eine Lösung ?
-
Nö. Für Netcup existiert hier kein Problem. Deswegen wird da auch nichts dran gearbeitet, geschweige denn ernsthaft versucht herauszufinden, woher das Problem kommt.
-
Nur eine Beobachtung, keine Ahnung ob das jemandem weiterhilft: Offensichtlich wird beim Download kein Content-Length Header mitgeschickt. Damit ist das Ende der TCP-Verbindung eben ein erfolgreicher Download, da der Browser nicht wissen kann, ob noch ein paar Bytes fehlen. Das wiederum lässt dadrauf schließen: Irgendwas, serverseitig, beendet die TCP-Verbindung.
-
Ich hatte damals genau das gleiche Problem mit Downloads, die via PHP bereitgestellt wurden. Die sind auch ständig abgebrochen. Siehe dazu diesen Thread.
Damals hatte ich eine Antwort vom Support bekommen, die ich aber nicht ganz verstanden habe.
-
Klasse. 2 Monate hat es jetzt funktioniert, jetzt wieder: 5 Downloads, 5 unterschiedliche Dateigrößen, und alle so
tar: Unexpected EOF in archive
tar: Error is not recoverable: exiting now
-
ich hab das gleiche problem auf einem WH2000SE und löse das jetzt via backup auf den webhosting-ftpd. damit klappt das rauf- und runterladen der backups mit den üblichen scp/rsync-tools.
siehe https://forum.netcup.de/anwend…eim-hochladen/#post151619
-
Hallo ins Forum, ich schließe mich an...
Verschiedene Browser ... unter macOS ... die Backup-Datei 2,23 GB groß (komplettes Backup) und jedes Mal nach exakt 1,08 GB Abbruch im Sinne von beenden des Downlad.
Die heruntergeladene Datei natürlich unbrauchbar...
Das meine Internetverbindung ansonsten überall und überhaupt stabil und schnell läuft und auch der Mac Pro ist ausreichend...
-
Zweieinhalb Jahre her, gleiches Problem. Gibt es da mittlerweile eine Lösung oder einen brauchbaren Workaround? Ansonsten muss ich mir wohl einen von außen zugänglichen FTP Server auf dem NAS einrichten, wenn es damit funktioniert..