Maximale Werte für Wordpress Hosting / php.ini Settings / Download großer Files

  • Hi,


    Nun ich habe einen Kunden bei Stratö... :cursing::/


    Der ist Musiker und hat jetzt ne kleine Doku rausgebracht, die 3,2 GB groß ist und die er jetzt verkauft.

    Der Verkauf ist eher nicht so oft, aber wenn, dann haben die Kunden Probleme, weil sie die File nicht zuende geladen bekommen über das Wordpress UI.

    Die große Zip Datei wird eben nicht fertig geladen und man hat ein unerwartetes Archivende - sprich kaputte unnutzbare Files.

    Eigentlich wollte ich die MP4 direkt zum Download anbieten, aber Woocommerce nimmt es nicht an.

    Es gibt zwar Workarounds, aber ich wollte in diesem Zuge fragen, welche Limits es bei Netcup gibt?

    Sonst würde ich mit ihm auf netcup rüberkommen ;)


    Hier ist mal eine php.ini, die ich genommen habe.


    file_uploads = On

    max_execution_time = 12000

    post_max_size = 30000M

    memory_limit = 512M

    register_globals = Off

    safe_mode = Off

    upload_max_filesize = 35000M

    session.gc_maxlifetime = 144000

    session.cache_expire = 18000


    Diese wird bei Stratö schonmal auf lächerliche 64MB Uploadsize von Haus aus gedrosselt, was absolut bescheuert ist.

    Wie schaut es bei Netcup aus?


    Wäre es möglich direkt bei Netcup über Wordpress solche großen Dateien paar mal im Monat zu herunterzuladen, sprich ca. 10-20GB Traffic zu haben?


    Bitte um Antworten. :thumbup:


    Liebe Grüße
    Pro

  • Diese wird bei Stratö schonmal auf lächerliche 64MB Uploadsize von Haus aus gedrosselt, was absolut bescheuert ist.

    Das ist schon recht viel.


    Für sowas sollte man die Datei vielleicht per FTP in die Media-Library hochladen und nicht per PHP...


    //Edit: Die Kunden laden doch eh runter; das hat mit der Upload_file_size gar nichts zu tun... :/

    Davon ab wird man vermutlich auch hier bei netcup keine vernünftige Download-Rate parallel für solche Downloads im Webhosting haben.

  • Danke für deinen Post.

    via ftp hochladen ist schon klar, aber der Einfachheit halber sollte es auch über Wordpress gehen - für manche Kunden zumindest.


    Aber vor allem ist das Problem, des Downloads großer Files noch eine offene Frage.
    Bei Woocommerce ist zumindest schön, das der Download-Link gecrypted wird und nur ein eingeloggter User kann es runterladen...

  • Hay,


    wenn so etwas regelmäßig vorkommt, ist das Webhostig mit Wordpress vielleicht nicht das optimale Werkzeug. Auf meinem RS 8000 habe ich owncloud für meine Kunden und die größte Datei, die hochgeladen wurde (ein Image eines kompletten Servers), liegt bei 47 GB.


    Aber vor allem ist das Problem, des Downloads großer Files noch eine offene Frage.

    Bei Downloads gibts keine Größenbeschränkung. Und bei Wordpress hochgeladen kann auch jeder ungeschützt darauf zugreifen, wenn er die URL kennt. Du kannst das Verzeichnis (das aber dann kein Wordpresse Media-Verzeichnis sein darf) mit einer .htaccess und .htpasswd schützen, dann kommen zumindest nur die drauf, die das Passwort kennen.


    Ansonsten kann man digitale Medien auch als passwortgeschützte ZIP-Datei anbieten. Eine geeignete Programmierung vorausgesetzt kann man sogar für jeden Kunden ein File mit einem individuellen Passwort anbieten. Aber wenn man eh programmiert, kann man auch gleich einen separten Kundenbereich bauen.


    CU, Peter

    Peter Kleemann // https://www.pkleemann.de // +49 621 1806222-0 // Kann Programme, Internet, Netzwerke und Telefon.

  • Ich könnte mir eher vorstellen, dass du beim Abgebrochenen Download in ein Execution-Timeout läufst..

    Du hast zwar eine in der INI stehen, üblicherweise gibt es da aber trotzdem ne maximalzeit die vom Hoster vorgegeben wird (wie auch beim Upload).


    Hast du bei dem anderen Hoster Zugriff auf error Logs?


    Edit:

    Hab grad mal nachgeschaut: bei netcup haben alle Webhostingpakete nen 180s Timeout. Da wirst du eher auf nem vServer ne installation machen müssen um die Werte frei hoch zu schrauben

  • Das wird wohl auch der Grund sein, warum YouTube nicht auf einem Webhosting läuft. ;)

    Dateiübertragung per PHP setzt bei so großen Dateien auch eine Menge verfügbarer Ressourcen voraus, die es eben in einem Webhosting nicht geben kann. Ok, vielleicht schon. Dann heisst das Webhosting aber "managed server".

    Ein einfacher Dateidownload direkt über den Webserver, Apache oder nginx, ist was ganz anderes. Das kann funktionieren. Mit PHP kann man sicher etwas programmieren, das den Link mit einem Hash versieht und seine Gültigkeit beschränkt auf eine gewisse Zeit oder Anzahl Downloads. Wird es wohl auch schon fertig geben für Wordpress.

  • Davon ab wird man vermutlich auch hier bei netcup keine vernünftige Download-Rate parallel für solche Downloads im Webhosting haben.

    Für eine Datei mit gut 865 MB habe ich beim Webhosting 8000 eine Downloadzeit von 10 Sekunden - auf einen anderen Webserver. Mit meinen lausigen ;) 120 MBit/s zuhause dauert es natürlich entsprechend länger. Mehrere Downloads parallel wären sicher auch entsprechend langsamer, aber bei einigen wenigen Downloads pro Monat wäre das kein allzu großes Problem. Wie das allerdings bei einem Download per PHP aussieht weiss ich nicht. Man müsste die Datei wahrscheinlich auch in Chunks übertragen, damit das RAM ausreicht (memory_limit=1024M bei Webhosting 8000,

    upload_max_filesize=256M, max_execution_time=80; So sieht die Realität aus im Gegensatz zur Fiktion des TE. ;))