Beiträge von Virinum

    Darüber bin ich auch schon mal gestolpert. $config['default_host'] kann ein Array entgegen nehmen, $config['smtp_server'] dagegen nicht.


    Wenn du nur Mailserver ansprechen möchtest, bei denen der Prefix der Domain des SMTP-Servers gleich ist, kann man das auch so machen:


    PHP: config.inc.php
    $config['default_host'] = array(
      'ssl://imap.web.de' => 'WEB.DE',
      'ssl://imap.gmx.net' => 'GMX',
      'ssl://outlook.office365.com' => 'Outlook.com',
    );
    
    $config['smtp_server'] = 'tls://smtp.%z';

    %z - IMAP domain (IMAP hostname without the first part)


    Netcup hat da aber leider ein anderes Schema. IMAP- und SMTP-Server heißen beide mx????.netcup.net. Man könnte sich da jetzt eigene Subdomains anlegen, dann kann es aber Probleme mit dem Zertifikat geben.

    Oder man legt sich extra Subdomains an und lässt roundcube dann immer die entsprechende Config laden.

    Also z.B. webmail-gmx.example.com und webmail-web.example.com


    Und in der Config dann:

    PHP: config.inc.php
    $config['include_host_config']['webmail-gmx.example.com'] = 'gmx_config.inc.php';
    $config['include_host_config']['webmail-web.example.com'] = 'web_config.inc.php';

    In gmx_config.inc.php und web_config.inc.php setzt man dann entsprechend $config['default_host'] und $config['smtp_server'].


    Bei deiner Lösung sehe ich nämlich ein Problem: Was ist wenn sich mehrere gleichzeitig einloggen? Die überschreiben sich dann doch gegenseitig die server.conf. :/

    Ich bin beim nächsten Angebot gespannt, welcher Dienst da am Schnellsten ist.

    Ich biete beim aktuellen Angebot 10:15 Uhr als Benachrichtigungszeitpunkt. ^^
    Selbstgeschriebener RSS to Mail Dienst. Läuft immer um :15 Und :45. :)

    Aber stimmt es das keine sichere Verbindung zum Mailserver aufgebaut wird?

    Das wundert mich irgendwie. Das würde ja bedeuten, dass das Zertifikat nicht gültig ist. Oder du greifst über den falschen Hostnamen auf den Mailserver zu.


    Ich weiß, dass du geschrieben hast, dass du die richtigen Einstellungen verwendest. Könntest du trotzdem mal einen Screenshot von deinen Accounteinstellungen beim iPhone machen?


    Ich hatte mal ein Problem was mit IPv6 zu tun hatte. Das war jedoch mein eigener Mailserver. Da hat mein iPhone versucht über IPv6 auf den Mailserver zuzugreifen, der aber kein IPv6 aktiviert hatte. Dadurch kam es zum Timeout und erst danach hat das iPhone es über IPv4 probiert.

    Bei mir klappt es so:


    Webserver:

    externe IP: 188.68.47.172

    hergeleitete interne IP: 10.35.47.172


    Beim entsprechenden Datenbank-Nutzer habe ich bei Access control Allow remote connections from: 10.35.47.172 ausgewählt.


    Wenn ich dann bei Databases auf phpMyAdmin klicke, kann ich meine Datenbank sehen und bearbeiten.

    Hallo Joel,


    ich beschäftige mich jetzt schon recht lange mit Roundcube. Ich kann dir gerne bei konkreten Fragen behilflich sein. Entweder in diesem Thread oder per PN.


    Zum Hochladen würde ich nicht den Windows-Explorer verwenden. FileZilla bietet sich da sehr gut an. Alternativ kannst du auch versuchen mit dem Dateiexplorer vom WCP zu arbeiten.


    Zu Get it ready:

    Standardmäßig sollten temp und log eh schon beschreibbar sein. Hier ist also erst einmal nichts besonders zu beachten.


    Zu Database Configuration:

    Einfach im WCP eine neue Datenbank anlegen und die Zugangsdaten merken, bzw. irgendwo sicher notieren. Die brauchst du später beim Installer.


    Zu PHP Configuration:

    Auf die meisten Einstellungen hast du eh keinen Einfluss. Die lassen sich bei einem Webhosting-Paket nicht ändern. Ich würde vorschlagen dort einfach auf die Meldungen beim Installer zu achten. Also hier brauchst du auch erstmal nichts unternehmen. Roundcube bringt eh die entsprechende .htaccess-Datei selber mit.


    Versuch am besten so weit zu kommen, dass du den Installer siehst. Der wird dir dann schon sagen, was noch nicht stimmt.

    Ganz verstehe ich die Antwort vom Support nicht, aber sie klingt irgendwie plausibel:



    Also abschließend lässt sich sagen: Mit Apache klappt es einfach nicht. Mit "FPM served by nginx" jedoch schon. Ich verwende jetzt also nginx. Jetzt muss ich nur noch rausfinden, wie ich die Meldung weg bekomme:

    Zitat von nextcloud

    PHP scheint zur Abfrage von Systemumgebungsvariablen nicht richtig eingerichtet zu sein. Der Test mit getenv("PATH") liefert nur eine leere Antwort zurück. Bitte die Installationsdokumentation auf Hinweise zur PHP-Konfiguration durchlesen, sowie die PHP-Konfiguration Deines Servers überprüfen, insbesondere dann, wenn PHP-FPM eingesetzt wird.

    vielleicht hilft die "Serve static files directly by nginx" Funktion unter "Apache & nginx Settings"?

    Es handelt sich dabei ja nicht um eine statische Datei, sonder um eine Datei, die durch PHP "durchgeschliffen" wird. Also bringt die Einstellung leider nichts. Aber danke für deinen Tipp.


    Bin übrigens nach wie vor mit dem Support in Kontakt. Das Problem kann dort nachgestellt werden. Jedoch ist im Moment noch von einem Timeout von FastCGI die Rede. Dagegen spricht aber meiner Meinung nach, was ich oben erwähnt habe:

    5 GB Datei über 50 Mbit/s: nach ca. 14 Minuten erfolgreich
    5 GB Datei über 25 Mbit/s: nach ca. 5,5 Minuten abgebrochen

    Ich halte euch hier weiter auf dem Laufenden.

    Das umstellen auf FPM hat das ganze leider nicht behoben, sondern nur die Grenze der mindestens vorhandenen Downloadgeschwindigkeit etwas nach unten gesetzt.


    Folgendes Verhalten kann ich beim Download von https://vm0.de/5GB.php beobachten:

    • 5 GB Datei über 50 Mbit/s: nach ca. 14 Minuten erfolgreich
    • 5 GB Datei über 25 Mbit/s: nach ca. 5,5 Minuten abgebrochen

    Im Log finde ich folgende Fehlermeldungen:

    Code: error_log
    [Wed Apr 24 09:54:45.924903 2019] [proxy_fcgi:error] [pid 32264] [client XXX.XXX.XXX.XXX] AH01068: Got bogus version 166
    [Wed Apr 24 09:54:45.924972 2019] [proxy_fcgi:error] [pid 32264] (22)Invalid argument: [client XXX.XXX.XXX.XXX] AH01075: Error dispatching request to : (passing brigade to output filters)

    Ich hab auch schon versucht den Support zu kontaktieren, der stellt sich aber quer:

    Zitat von netcup Support

    Bitte haben Sie dafür Verständnis, dass wir keinen Support zu Ihren Inhalten und Anwendungen anbieten können, da es schlicht unendlich viel Software, Versionen, Plugins und Optionen als Möglichkeiten gibt

    Dies würde schlicht jeglichen sinnvollen Supportrahmen sprengen.

    Wobei ich das starke Gefühl habe, dass meine Mail nur sehr halbherzig gelesen wurde. Es geht ja nicht konkret um eine Software, sondern um eine Grundfunktion von PHP. Aber ich bleibe da dran.

    Ehrlich gesagt habe ich keine Ahnung, was ich mir jetzt von euch erhoffe. Ich denke nämlich, dass nur der Support kann da wirklich was reißen. Aber vielleicht hat ja jemand eine Erleuchtung.

    Hast du schon mal versucht eine Shutdown function bei deinem Script zu hinterlegen und so mitzubekommen, weswegen das Script abbricht?

    Ich habe jetzt das error_log gefunden. Dort sind zwei Meldungen drin:

    Code
    [Wed Apr 24 09:54:45.924903 2019] [proxy_fcgi:error] [pid 32264] [client XXX.XXX.XXX.XXX] AH01068: Got bogus version 166
    [Wed Apr 24 09:54:45.924972 2019] [proxy_fcgi:error] [pid 32264] (22)Invalid argument: [client XXX.XXX.XXX.XXX] AH01075: Error dispatching request to : (passing brigade to output filters)


    Möglicherweise die PHP Execution time?..

    Es wundert mich halt Folgendes:

    • 5 GB Datei über 50 Mbit/s: nach ca. 14 Minuten erfolgreich
    • 5 GB Datei über 25 Mbit/s: nach ca. 5,5 Minuten abgebrochen

    Wie sieht‘s mit dem memory limit aus, das dürfte meine Uploads beschränken, oder? (128mb sind nicht viel)

    Über die offiziellen Clients von Nextcloud ist ein Upload von großen Dateien kein Problem: Chunked file upload

    Zumindest über das Webinterface hatte ich noch keine Probleme bei Uploads von 10 GB großen Dateien.

    https://docs.nextcloud.com/ser…upload_configuration.html

    https://docs.nextcloud.com/ser…apis/WebDAV/chunking.html


    Ich habe nur Probleme mit Downloads von größeren Dateien. Z.B. bricht ein Download einer 5 GB Datei ab, wenn ich sie über eine 25 Mbit/s Leitung runterlade. Eine 50 Mbit/s Leitung macht keine Probleme. Interessanterweise bricht der Download bei der 25 Mbit/s Leitung früher ab, als der erfolgreiche Download über die 50 Mbit/s Leitung dauert. Das scheint aber nicht an Nextcloud zu liegen. Ein einfaches PHP Script, das auch eine Datei zum Download anbietet, verhält sich genau so.

    Dabei sei noch erwähnt, dass ich das Webhostingpaket "EiWoMiSau" nutze.

    Ich habe vom Support eine Antwort erhalten:

    Zitat von netcup Team

    FPM steht für "FastCGI Process Manager". Dabei wird nicht für jedes PHP-Skript ein neuer Interpreter-Job gestartet, sondern mehrere FastCGI Prozesse sind im Hintergrund aktiv und warten auf Eingaben/Aufträge vom Webserver. Dadurch ist die Ausführung verlässlicher, da die Prozesse nicht vom Webserver abhängig sind (und auch nicht mit den Rechten des Webservers, sondern des PHP-FPM Benutzers ausgeführt werden).

    Danke für die Erklärungen!

    Ich habe mittlerweile mal mit FPM statt FastCGI getestet. Und tatsächlich tritt hier das Problem nicht auf. Mein Problem ist damit also "gelöst".


    Trotzdem interessiert es mich noch, wieso das mit FastCGI nicht funktioniert. Ich frage dazu mal beim Support nach und gebe dann Bescheid.


    Vielen Dank für eure Hilfe.

    Der Anschluss spielt dabei keine Rolle.

    Welche PHP Konfiguration nutzt du im WCP und wie liefertst du die Daten aus, per apache oder nginx?

    PHP 7.2.17 FastCGI von Apache bedient.

    Ich probiere jetzt mal FPM. Vielleicht bringt das ja einen Unterschied. Ansonsten frage ich mal beim Support nach.

    Da tippe ich mal, dass du entweder das memory_limit oder die max_execution_time überschreitest,

    In wie weit haben denn diese Werte Einfluss darauf? Das memory_limit ist 512 MB. Aber ich bekomme ja mehr als 512 MB runtergeladen. Und wie geht PHP denn mit der max_execution_time um? Falls du mir das erklären könntest, wäre das echt super.

    Nur beim Download.


    Mittlerweile habe ich rausgefunden, dass es nicht an nextcloud selber liegt.


    Zum Test habe ich mal folgendes Script ausprobiert:


    Hier ist das Verhalten genau so wie bei Nextcloud. Wenn meine Leitung schnell genug ist, schaffe ich es auch die Datei vollständig runterzuladen. Ist sie es aber nicht, bricht der Download ab.

    Hallo zusammen!


    Ich verwende das Webhosting EiWoMiSau. Hierauf habe ich nextcloud installiert.


    Jetzt habe ich nur folgendes Problem. Der Download von Dateien oder Ordnern bricht ab:

    • Bei einer 100 Mbit/s Anbindung nach ca. 6,2 GB
    • Bei einer 50 Mbit/s Anbindung nach ca. 3 GB

    Immer nach ca. 8 Minuten. Mal nach 7 Minuten 22 Sekunden und mal nach 8 Minuten 45 Sekunden.


    Bei Leistungen steht "PHP Execution Time: 60s (120s Webhosting 8000)". Aber 8 Minuten sind ja eindeutig mehr als 60 bzw. 120 Sekunden.


    Gibt es da noch irgendein anderes Limit oder ein Timeout, das ich einstellen kann? Oder hat es was mit dem Output-Buffering zu tun? Bin an der Stelle leider mit meinem Latein am Ende.


    Vielen Dank schon mal für eure Tipps!

    Nabend,


    zu den ersten drei Punkten: ja


    Zum vierten: Bei der Performance macht das keinen Unterschied. Das kann ganz praktisch sein, wenn du eine Software betreiben möchtest, die z.B. ein Lizenzmodell hat, wo man nach der Anzahl der CPUs bezahlt. Dann ist es günstiger eine CPU mit mehr Kernen zu nehmen.


    IP statisch konfigurieren!


    Ich würde einen anderen Benutzer anlegen und das Administratorkonto deaktivieren, falls du RDP aktivieren musst. Oder den Server einfach so lange ausgeschaltet lassen, bis der Profi seine Arbeit anfangen möchte.

    Noch ein Hinweis zu der Uhrzeit. Windows erhält vom Hostsystem die Uhrzeit in UTC. Das muss in der Registry von Windows noch umgestellt werden. Sonst hast du nach jedem Neustart eine falsche Uhrzeit, bis die Zeit über NTP aktualisiert wurde:

    https://forum.netcup.de/admini…server-2012-r2/#post84123