"(104)Connection reset by peer" bei größeren Downloads von der Nextcloud

  • Hallo,

    ich habe unter einem Webhosting 2000 Tarif eine Nextcloud laufen, die ich hauptsächlich nutze, um Bilder von gemeinsamen Urlauben oder Feiern mit Freunden zu tauschen. Vor ein paar Tagen habe ich auf Nextcloud 29 geupdated und einiges lief danach nicht mehr so sauber. Das meiste konnte ich fixen, aber beim Versuch, größere Dateien oder Ordner herunterzuladen, bricht der Download immer irgendwann ab. *Ich kann leider auch nicht mit Sicherheit sagen, dass das Problem erst seit dem Update besteht.


    Bei einzelnen Dateien kann man den Download ja fortsetzen, das ist nicht ganz so tragisch, aber wenn ich zB auf einem geteilten Ordner bin und über "Alle Dateien herunterladen" den Download anstoße, wird ja von der Nextcloud on-the-fly eine zip erstellt und die kann man natürlich nicht resumen. Ist dann sehr ärgerlich, wenn der Download immer nach 2-3gb abbricht und man wieder von 0 anfangen muss. In den Server logs habe ich immer beim Abbruch den angehängten Fehler gefunden. Kann ich hier etwas anders konfigurieren, um das zu beheben?


    Vielen Dank im Voraus!


    pasted-from-clipboard.png


    EDIT: Scheint mit diesem (recht alten) Thread zusammenzuhängen. Auch bei mir bricht es immer zwischen 7-8 Minuten ab. Virinum und tab habt ihr das lösen können?

  • Also mir ist jedenfalls die Lösung nicht bekannt, falls Virinum oder sonst jemand eine gefunden hat mittlerweile. PHP-FPM hat ja damals wohl das Problem wenigstens etwas abgemildert, das bringt heute leider nichts mehr, weil im Webhosting kein PHP-FPM (mehr) angeboten wird. Auch die Google-Suche bringt auf die Schnelle nicht viele neue Erkenntnisse.


    Es hängt offensichtlich mit der Downloadgeschwindigkeit zusammen, wenn auch vielleicht nur so, dass bei schnellerem Download eben die Zeit kürzer wird. Ich konnte das Problem damals nicht nachvollziehen, auch bei Download der selben großen Datei, deren Download bei Virinum abgebrochen wurde. Bei mir lief der Download immer sauber durch. An den Einstellungen kannst du außer Apache/nginx nicht viel umstellen, irgendwelche möglichen Timeouts schon gar nicht.


    Bleibt (von mir) höchstens der Rat, darauf zu achten, die einzelnen Ordner nicht so groß werden zu lassen, dass der Fehler auftritt. Besonders befriedigend ist das freilich nicht. Aber wohl immer noch besser, als die Dateien einzeln herunterladen zu müssen. Man könnte natürlich auch bei jedem Downolad nur eine gewisse Zahl von Bildern auswählen, aber das macht es auch nicht unbedingt komfortabler.


    Edit: Falls es eventuell wirklich erst seit dem Update auf NC 29 passiert, hilft es vielleicht, das als Issue zu melden. Vielleicht können sich ja die Programmierer mittlerweile einen Reim darauf machen und fixen es mit einer den nächsten Bugfix-Updates. Ist 29.0.1 derzeit die neueste Version? Dann würde mich das anhand der Versionsnummer (xx.0.1) nicht besonders wundern. Ich warte nach mehreren schlechten Erfahrungen mittlerweile immer mindestens 3 bis 4 Versionen ab, bevor ich auf eine höhere Major-Version update.

  • Ich hab da leider auch keine neuen Erkenntnisse. Hab meine Nextcloud auf einen RS mit KeyHelp umgezogen und seitdem Ruhe.

    RS Brezn | VPS 500 G8 Plus | 2× VPS Karneval 2020 | VPS Pocket Admin | RS Cyber Quack | VPS 500 ARM


    Dieses Gebäude hat mir die Vorfahrt genommen! *hup*

  • Eventuell klappt es ja auch mit der kleinsten St0rage Share vom roten H. Werde ich wohl bald feststellen, weil ich meine private Nextcloud demnächst vom Strota Server dahin umziehen muss. Andererseits waren ja bei mir 5GB Dateigröße beim Download eh kein Problem.

  • ich kenne leider das Webhosting Paket nicht - wie weit hast du da die Möglichkeit die php.ini Einstellungen anzupassen? Ich bin gerade gestern von meinem alten Root-Server zu Netcup (RS) übersiedelt mit meiner Nextcloud und hab aufgrund der besseren Leistung hier auch wieder einiges in der php.ini getuned, was du jedenfalls anpassen musst, damit du größere Files runterladen kannst sind zB. die Timeouts wie max_execution_time und auch Speicher Limits erhöhen usw. - das steht aber auch in dem von dir verlinkten alten Thread schon drin :)

  • Habe den Storage Share vom roten H schon länger und bin sehr zufrieden (geht auch mit der eigenen Domain). Nextcloud ist imho nicht so angenehm selbst zu hosten. Daher lieber "machen lassen". Da ist dann noch die Storage Box auch vom H eingehängt und man hat Platz ohne Ende.

    RS Ostern L OST22 (~RS "3000" G9.5) (8C,24GB,960GB) | RS Cyber Quack (1C,2GB,40GB)

  • Falls es eventuell wirklich erst seit dem Update auf NC 29 passiert

    Guter Hinweis. Ich hab noch eine lokale Nextcloud auf dem Homeserver laufen, die auch auf die aktuelle Version geupdated ist. Da habe ich testweise mal einen Download über 20 Minuten gemacht. Das ging ohne Probleme. Liegt also ziemlich sicher an der Apache Konfiguration. Dafür spricht auch, dass es in den Nextcloud Logs keinen Fehler gibt, sondern nur im Webserver Log.


    Kann man irgendwie den netcup Support erreichen, dass die sich das mal ansehen, ob man da was ändern kann?

  • Guter Hinweis. Ich hab noch eine lokale Nextcloud auf dem Homeserver laufen, die auch auf die aktuelle Version geupdated ist. Da habe ich testweise mal einen Download über 20 Minuten gemacht. Das ging ohne Probleme. Liegt also ziemlich sicher an der Apache Konfiguration. Dafür spricht auch, dass es in den Nextcloud Logs keinen Fehler gibt, sondern nur im Webserver Log.


    Kann man irgendwie den netcup Support erreichen, dass die sich das mal ansehen, ob man da was ändern kann?

    Den Support erreichst du am einfachsten über das Formular im CCP. Allerdings meist nur den First Level Support. Im Zweifelsfall entsprechende Logauszüge mit der Fehlermeldung gleich mitliefern. Dann besteht am ehesten die Chance, dass es weitergeleitet wird an jemanden, der sich damit auch auskennt.

  • Der Netcup Support hat sich mittlerweile zurückgemeldet, dass man da leider nix machen kann, da man die PHP-Konfiguration bei Webhosting-Tarifen nicht individuell anpassen kann. Eventuell würde der Wechsel auf einen größeren Tarif etwas bringen. Das glaube ich allerdings kaum, da Virinum ja vom gleichen Problem beim Webhosting EiWoMiSau berichtete. Oder vielleicht meinten sie mit größerem Tarif auch einen vServer oder sowas? keine Ahnung.. Auf jeden Fall schade

  • Wenn du möchtest, kann ich dir einen temporären FTP-Zugang mit DB und Testdomain zur Verfügung stellen, wahlweise 4000 oder 8000. Dann könntest du es ausprobieren.

    [RS] 2000 G11 | 2000 G9 | 500 G8 | 2x Cyber Quack

    [VPS] 2000 ARM G11 | 1000 G9 | mikro G11s | 4x nano G11s
    [WH] 8000 SE | 4000 SE | 2000 SE

  • Ohh, ich hatte deine schnelle Antwort gar nicht gesehen Bud. Ja, das würde ich gerne mal ausprobieren. Datenbank bräuchte ich wahrscheinlich gar keine, sondern würde das einfach mit dem Skript von hier und einer großen Datei ausprobieren.

  • Ja, probier es aus, die EiWoMiSau ist in dem Sinn kein größerer Tarif, mehr Ressourcen bekommt die auch nicht. Ob das 4000er und 8000er da anders sind? Eventuell denkbar, aber ich halte es für unwahrscheinlich. Letztlich liegt das Problem wohl an mod_fcgid und/oder seinen Einstellungen. Ob die jetzt zwischen unterschiedlich großen Webhostings auf dem selben Server überhaupt unterschiedlich sein können? Keine Ahnung. Es gibt da diverse Timeouts und wiederum regelmäßige Überprüfungen der Timeouts usw. Deswegen kommt der Fehler wohl auch nicht immer nach exakt der selben Zeit.


    Ich schätze, damit wird man mit Nextcloud im netcup-Webhosting einfach leben müssen. Wenn das nicht möglich ist, dann muss man die Nextcloud hier auf einem vServer oder woanders hosten. Oder vielleicht bei einem Fertig-Anbieter wie dem roten H eine buchen. Bin jetzt erst mal weg, am späten Abend könnte ich bei Bedarf mal eine Reihe größerer Dateien in meine Storage Share beim roten H hochladen und freigeben (z.B. 5GB, 10GB, 20GB), dann könnt ihr mal testen ob das mit deren Cloud bei euch funktioniert.