Posts by benutzer0815

    Macht der Conjob denn was bei dir mit 128 MB? Bei mir läuft er auch dann nur 0 Sekunden mit dem Parameter...

    Der Cron-Job mit "PHP-Script ausführen" ohne Argument macht was er soll

    Der Cron-Job mit "PHP-Script ausführen" mit Memory-Limit-Argument auf 512 MB macht ein paar mal was er soll, irgendwann dann nicht mehr.

    Die Info ob er was macht beziehe ich auf Nextcloud, diese sagt in den Einstellungen immer wann der letzte Cron-Job lief, bzw. es kommt auch ein Fehler wenn der Cronjob längere Zeit nicht läuft.


    Cron-Job mit "Befehl ausführen" funktioniert nicht. Pfade sind falsch. Der Cron-Job als Befehl wird wohl so ausgeführt wie wenn ich etwas über die SSH-Konsole mache. Da haben SSH und PHP nämlich unterschiedliche Pfade haben. Da müsste man dann eine Umgehungslösung in die config.php bzw. eine gesonderte config-Datei schreiben. Da ich die config-Datei-Änderung nicht verstehe, habe ich das erstmal gelassen.

    Danke für den Hinweis, das hab ich jetzt auch so gemacht (lief) und später in den Argumenten noch "-d memory_limit=512M", weil ich den Speicherfehler bekommen habe via Mail. Jetzt läuft der Job zwar auch noch erfolgreich, aber nur 0 Sekunden im Gegensatz zu 30-50 Sekunden wie vorher. Sprich nach meinem Dafürhalten macht er genau nichts. Dadurch bedingt scheint die Indizierung der Fotos App auch nicht zu funktionieren, wodurch diese einen Fehler bringt beim Aufrufen. Habe ich das falsch verstanden? Oder muss ich noch woanders hinpacken?

    Ich habe das gleiche / ein ähnliches Problem. Ich habe Webosting 2000 und das Limit für cron und Kommandozeile (ssh) liegt bei 128 MB, und nicht wie beworben und wie bei php bei 512 MB. Gebe ich das memory-Limit-Argument ein exakt wie Mike0815 oben im Bild, dann läuft der Cron-Job ein paar mal erfolgreich laut Nextcloud, und dann laut Nextcloud gar nicht mehr. Ohne Felermeldung im CCP. Möchte Netcup hier einen Speichermissbrauch verhindern? Als Einzelplatznutzer mit wenig Dateien und wenig Nutzung strapaziere ich das Webhostingpaket kaum, und der Cronjob sollte in 99% der Fälle mit weit weniger als 128 MB auskommen, nur eben ganz vereinzelt nicht, wenn ich Nextcloud kurzzeitig intensiv nutze. Die Problematik tritt aber auch auf, wenn ich nichts mache und der Cronjob kaum Speicher und Ressourcen belegen sollte.


    Edit: Ohne das Memory-limit-Argument läuft der Cronjob alle 5 Minuten für Monate problemlos wie ein Uhrwerk .... nur nicht wenn er ausnahmsweise mal in ein Speicherlimit rennt.

    Hallo Forum,

    ich betreibe eine Nextcloud im Webhosting-2000-Tarif. 512MB Speicher reicht für Nextcloud aus, da ich die Cloud überwiegend alleine benutze.

    Über die "Aufgaben" im Webhosting-Control-Panel habe ich einen Cron-Job angelegt, da dies von Nextcloud so empfohlen wird. Als zusätzlichen Parameter habe ich kürzlich ein Speicherlimit von 512MB ausgewählt (mit dem Parameter -d memory_limit=512M), da der Speicher für CLI ja geringer ist als die Reguläre Einstellung. Grund war dass ich viele und große Dateien kopieren musste und mir die 128 MB zu gering erschienen. Leider funktioniert das nur ein Zeit lang. Nach wenigen Stunden klappt der Cron-job nicht mehr ... ohne Fehlermeldung im Webhosting-Panel, aber in Nextcloud wird angezeigt, dass er nicht mehr läuft. Führe ich den Cron-Job aus indem ich auf "jetzt ausführen" klicke, dann erscheint im Webhostinh-Crongrol-Panel eine grüne Erfolgsmeldung, im Nextcloud steht weiterhin, dass der Befehl nicht ausgeführt wurde. Ohne Änderung des Speicherlimits, also ohne Parameter im Cron-Job läuft der Cron-Job wie ein Uhrwerk dauerhaft. Hat jemand den gleichen Fehler, oder weiß wo das Problem liegt?


    Übrigens: Den Cron-job führe ich aus als "PHP-Skript ausführen". Mit "Befehl ausführen" von /usr/local/php83/bin/php -f /eigenedomain/httpcocs/cron.php klappt es nicht. Könnte es daran liegen, dass der cron-job wie auch ssh andere Pfade hat als php?

    Ich hatte tatsächlich an ein Tutorial gedacht. Aber aufgrund der häufigen neuen Releases bei Nextcloud müsste das auch noch regelmäßig aktualisiert werden. Ich bin bisher davon ausgegangen, dass ziemlich viele Leute hier eine eigene Nextcloud im Webhosting-Tarif verwenden. Offenbar ist dem nicht so. Bei mir klappt Nextcloud im Webhosting bei Netcup ziemlich gut und im Gegensatz zu anderen Anbietern auch verhältnismäßig performant. Ich musste allerdings erst einige Klippen umschiffen wie ich in Post #3 geschrieben habe.


    Zu meinem ursprünglichen Anliegen: Der von mir im ersten Post genannte Fehler ist mit/ab Nextcloud 27.1.4 behoben und tritt nicht mehr auf. Der Thread ist damit gelöst.

    Vielen Dank tab für die erhellende Antwort. Dann weiß ich, warum ich die Fehlerlösung nicht gefunden habe, weil es sie offenbar nicht gibt.


    Mit dem reduzieren des Loggings auf fatale Fehler (loglevel => 4 in der config.php) wird mir zumindest meine Logdatei nicht sinnlos aufgebläht, dafür bekomme ich aber keinerlei Fehlermeldungen mehr in die Logs, erst recht keine Mitteilung wenn jemand fremdes Passwörter durchprobiert.


    Bleibt die Hoffnung, dass Nextcloud 28 (in gut einem Monat gibts wohl den ersten RC) das Verhalten ändert.


    Macht es Sinn, auf die neue Community-Platform eine Anleitung für die Installation von NC einzustellen und auf solche Probleme hinzuweisen? Beziehungsweise wie viele Leute verwenden Nextcloud im Webhostingtarif? Ich bin über drei Probleme gestolpert: 1.) Die interne IP des Webservers war mir für die Beschränkung des Datenbankzugriffs nicht bekannt. 2.) Weil ssh und php unterschiedliche Pfade haben, muss für den occ-Befehl in der Shell die config.php-Datei verändert werden. 3.) Ich hatte Probleme den Cronjob auf der Netcup-Verwaltugnssoftware zu finden, und zu realisieren, dass dort die neuste PHP-Version voreingestellt ist, welche mit Nextcloud25 nicht funktioniert.


    Meines Wissens gibt es leider keine andere Cloudsoftware mit Handy-App (ich finde z.B. den Dokumentenscanner der Nextcloud-App toll) die man einfach in ein Webhosting kopieren kann. Unter meinem Webhosting2000 war bis Nextcloud-Version 25 alles toll. Version 25 erhält ab kommendem Monat aber keine Security-patches mehr. Ich verwende Nextcloud lediglich als private Einzelnutzer-Dateicloud, mit ganz gelegentlichem öffentlichen Teilen. Ein Rootserver kann ich nicht absichern. Ich verwende Linux lediglich als Desktop und mir fehlen Serverkenntnisse.

    Hallo zusammen,

    ich bekomme ab Nextcloud Version 26 folgende regelmäßige Fehlermeldung im log:


    is_file(): open_basedir restriction in effect. File(/proc/cpuinfo) is not within the allowed path(s): (/var/www/vhosts/hosting123456.abcde.netcup.net/:/tmp/:/var/lib/php/sessions) at /var/www/vhosts/hosting123456.abcde.netcup.net/mydomain.de/httpdocs/lib/private/Preview/Generator.php#267


    Jetzt habe ich festgestellt, dass das Problem schon hier im Forum und dort im Nextcloud-Forum diskutiert wurde. Leider auf Englisch und ich blicke nicht durch. Ich verstehe es so, dass ein Patch geplant ist für Version 28 (noch nicht existent), aber das ist ja unsicher. Wie betreibt ihr eure Nextcloud im Webhosting, so dass das Logfile nicht überflutet wird von der Fehlermeldung? Abgesehen davon funktioniert bei mir nämlich alles ziemlich toll und ich verstehe die beiden Beiträge nicht.

    Hallo,

    ich habe auf meinem Webhosting-2000 nextcloud installiert. Jetzt möchte ich z.B. für ein Versionsupdate oder auch zur Fehlerbehebung per Kommandozeile über den Befehle "occ" etwas konfigurieren. Bei meinem früheren Provider hat das anstandslos funktioniert. Hier bekomme ich eine Fehlermeldung. Folgendes habe ich gemacht:

    Einwahl per SSH auf die Kommandozeile (ssh hosting0000@0000.netcup.net)

    Dann wechsele ich in das Verzeichnis, in dem Nextcloud installiert ist.

    Dort Eingabe des Befehles: /usr/local/php81/bin/php -d memory_limit=512M occ db:add-missing-indices


    Folgende vermutlich zwei Fehler kommen direkt hintereinander:

    Your data directory is invalid.

    Ensure there is a file called ".ocdata" in the root of the data directory.

    Cannot create "data" directory.

    This can usually be fixed by giving the web server write access to the root directory. See https://docs.nextcloud.com/ser…?to=admin-dir_permissions

    An unhandled exception has been thrown:

    Exception: Environment not properly prepared. in /XXYYZZ.de/httpdocs/lib/private/Console/Application.php:166

    Stack trace:

    #0 /XXYYZZ.de/httpdocs/console.php(99): OC\Console\Application->loadCommands(Object(Symfony\Component\Console\Input\ArgvInput), Object(Symfony\Component\Console\Output\ConsoleOutput))

    #1 /XXYYZZ.de/httpdocs/occ(11): require_once('/XXYYZZ...')

    #2 {main}bash-5.1$


    Das Verzeichnis data mit der Datei .ocdata ist aber vorhanden. Ich habe auch schon probiert, den Pfad für occ mit anzugeben:

    /usr/local/php81/bin/php -d memory_limit=512M /XXYYZZ.de/httpdocs/occ db:add-missing-indices

    Hat jemand eine Idee, was ich falsch mache?

    Bei einem Webhosting-Anbieter Mail korrekt zu konfigurieren, kann kompliziert sein. Gestern habe ich über zwei Ecken eine gmail-fehlermeldung zur Problemdiagnose bekommen. Gmail lehnt Mails komplett ab, bei denen Dkim und spf nicht passt. Spf ist in der Regel schon bei einer Weiterleitung kaputt. Mail verwende ich daher über einen externen Anbieter, bei netcup liegt bloß meine Webseite und meine nextcloud-Instanz. Mail ist für mich - auch wenn ich hier lediglich privat bin - sehr relevant. Ich will mir nicht leisten, dass es beim Versand oder Empfang Probleme gibt.


    Schicke ich also an Verteiler, und bin ich nicht bei einem Alles-inklusive-Anbieter wie web.de & Co, sondern bei einem Webhoster, dann benötige ich technisches Verständnis ... uns selbst dann scheiterte es manchmal, wenn z.B. die IP auf einer Blacklist ist, weil der Nachbar auf der Webhosting-Maschine gerade Spam verbreitet (eigenverantwortlich oder unfreiwillig weil sein Wordpress gehackt wurde).


    MAn könnte also das Thema Mail über einen auf Mail spezialisierten Anbieter auslagern. Dafür muss man die mx-Einträge im DNS auf den anderen Anbieter umschalten, aber auch mindestens DKIM, DMARC und spf richtig im DNS nach Anleitung des externen Mail-anbieters konfigurieren, und je nach individueller Präferenz auch noch mta-sts uns smtp-tls. Alternativ arbeitet man sich in die technischen Hintergründe ein. Die notwendigen Sicherheitsfunktionen dkim, dmarc und spf kann man hier bei netcup meines Wissens alle umsetzen. Wie zuverlässig netcups Mailservice ist, kann ich mangels Erfahrung nicht sagen. Der Webmailer reagiert bei mir extrem träge, und ich habe im Forum schon von anderen Problemen gelesen.

    Wenn man die Subdomain mail.domain.tld (A-Record) im DNS löscht, dann kann man sich beim Webmailer nicht mehr anmelden. Es geht übrigens nur um die Subdomain mail. Wenn man den mx-Record mit mail.domain.tld löscht, hat das keine Auswirkung. Ob dann noch IMAP geht, habe ich nicht ausprobiert, da die Änderung immer mehrere Stunden braucht, bis der Webmailer merkt, dass der DNS-Eintrag futsch ist.


    Ich habe das bemerkt, da ich die Subdomain mail.domain.tld für Quatsch halte und daher gelöscht hatte. Der mx-Record verweist auf mail.domain.tld, und dafür gibt es wiederum einen A-Record, der identisch ist mit dem zweiten MX-Eintrag mxXXXX.netcup.net. Beide MXe verwenden die gleiche IP. Ich verstehe das Setup nicht ganz. Zwei MX-Einträge, also Redundanz, macht ja nur Sinn, wenn am Ende ein zweiter Server steht mit einer anderen IP, oder sehe ich das falsch? Übrigens gibt das Einliefern über den MX mit Namen mail.domain.tld einen Zertifikatsfehler beim Mailversand, der Server hat ein SSL-Zertifikat für netcup.net, und nicht für domain.tld. Wie auch immer ... nach dem Löschen war einen Tag später auch der Webmailzugang futsch. Hat mich aufgrund des DNS-Caches doch eine Zeit gekostet, herauszufinden, wo das Problem lag.

    Im Hinterkopf jetzt natürlich doch bissl Bammel, dass ich mir nun durch den Linkbesuch irgendwas eingefangen habe. Hat da irgendjemand welche Erfahrungen was da wirklich passiert wenn man mal draufgeklickt hat? ?(

    Im Regelfall ist die Phishingseite nur dazu da, Accountdaten (Nutzername und Passwort) abzugreifen und enthält keine Schadsoftware. Im Regelfall bietet ein aktueller Browser auf einem aktuellen Betriebssystem ausreichend Schutz selbst bei Schadsoftware, insbesondere wenn man mit Skriptblocker und Adblocker unterwegs ist. Die Mehrheit der Leute mit Schadsoftware auf dem Rechner hat eine Datei runtergeladen und ausgeführt. Der Klassiker ist die letzte_mahnung.docx mit Markos.


    Letztlich gibt es keinen hundertprozentigen Schutz. Selbst seriöse Seiten fallen ganz vereinzelt dadurch auf, dass die eingeblendete externe Werbung Schadsoftware verbreiten will. Insofern hilft nur das System aktuell und sicher zu halten, und möglichst aufmerksam zu bleiben (z.B. bei Mails den Header kontrollieren). Ich kann das Gefühl aber gut nachvollziehen. Meine "Paranoia", also die Sorge vor Datenverlust und einer Menge Ärger, ist etwas besser geworden, seit ich meine Backupstrategie verbessert habe.

    OT und Funfact: Mein Wissen beschränkt sich bei htaccess eher auf sowas einfaches wie "Redirect 301 / https://anderedomain.tld". Ich war durchaus beeindruckt, dass mir chatgpt kürzlich recht gut unterschiedliche Weiterleitungsarten aufgedröselt hat, und mir konkret auf Nachfrage auch Vor- und Nachteile und Sinn von einzelnen Methoden erklärt hat oder es verständlicher ausgedrückt hat. :D Mangels Kompetenz kann ich die Erklärungen natürlich nicht bewerten .... und die KI wollte mir durchaus auch schon bei Tests in Bereichen wo ich mich auskenne hanebüchenen Unsinn unterjubeln. =O

    Sagt mal, kann ich beim Webhosting irgendwie für die Roundcube-Instanz unter http://webmail.domain.tld ein SSL Zertifikat mit Let´s Encrypt erstellen?


    Einfach eine entsprechende Subdomain anlegen und das Zertifikaterstellen erscheint mir irgendwie falsch. Oder wäre es das schon?


    Meinst du den netcup-eigenen Roundcube-Webmailer? Ich habe im DNS (allerdings verwende ich eine externe Domain) bei der Subdomain "webmail" als A-Record statt dem netcup-Webmail-server den eigenen Webspace eingestellt. Dann habe ich mir im WCP eine Subdomain webmail.doman.tld erstellt, dafür ein Lets-encrypt-Zertifikat erstellen lassen, und über htaccess eine Weiterleitung auf die URL webmailxy.webhosting.systems gemacht. Jetzt komme ich unter Eingabe von webmail.domain.tld ohne Zertifikatsfehler im Browser direkt auf den Webmailer. Die URL vom Webmailer habe ich rausgefunden, wenn ich im Control-Panel auf der Einstellungsseite von den Mailadressen auf das Webmailsymbol klicke.

    Beim Anlegen einer Subdomain kannst du aber den Pfad wählen:

    [...]

    Und auch wenn der Hinweistext darunter steht, kann man das bei einer Subdomain trotzdem über das WCP ändern:

    Stimmt. Allerdings habe ich gerade bemerkt, dass sich sich im WCP im Reiter "Hostingeinstellungen" die Maske und die Einstellmöglichkeiten, je nach dem ob ich eine Domain oder eine Subdomain auswähle, ändern. Den Pfad kann ich im WCP nur bei Subdomains ändern, bei Domains muss ich ihn über das CCP ändern. Weiterleitungen kann ich grafisch nur für Domains (CCP) einstellen, nicht aber für Subdomains. Für Subdomains braucht es dann eine htaccess. Und die ist einfacher, wenn ich keine Regeln (RewriteCond/Rule) brauche, was aber bei der www-Subdomain leider der Fall ist. Für mich als Netcup-Neuling ist die Aufteilung in CCP und WCP etwas verwirrend. So dachte ich einen Cronjob im WCP eingerichtet zu haben, und bin erst nach langwierigem Durchsuchen des WCP darauf gekommen, dass ich das ja im CCP bei der Standard-Verwaltungs-netcup-Damain gemacht habe. Und überhaupt finde ich Plesk nicht so prickelnd. Aber letztlich hat jede grafische Oberfläche so ihre Besonderheiten und ist auch Geschmackssache und man sucht sich seine Umgehungslösungen für die individuellen Bedürfnisse. Daher danke für die Antworten. :) Ich komme immer besser mit den Einstellungen klar.

    Wieso nicht? Das sollte problemlos gehen. Einfach neuen Ordner anlegen und den Pfad der Subdomain zuweisen (Dokumentenstamm im CCP).

    Ich glaube das geht nicht. Ich kann für Subdomains (Third-Level-Domains) im CCP keinen Dokumentenstamm ändern. Wenn es doch geht, würde ich mich über einen Hinweis freien. Wenn ich das WCP richtig verstehe, dann ging das früher über das WCP unter "Hosting-Einstellungen". Die Funktionen "Hosting Typ", "Dokumentenstamm" und "bevorzugte Domain" können dort mittlerweile nicht mehr eingestellt werden, es wird nun auf das CCP verwiesen. Im Gegensatz zum WCP, wo ich alle Domains und Subdomains (und Sub-Sub-Domains ...) auswählen kann, kann ich im CCP nur noch Domains (also Secons-Level-Domains) auswählen und den Dokumentenstamm ändern. Verwende ich aber Third-LEvel-Domains (cloud.domain.tld / forum.domain.tld / blog.domain.tld) dann kann ich diese Einstellungen nicht ändern. Somit kann ich auch die "bevorzugte Domain", also eine Weiterleitung von www auf nicht-www bei Third-level-domains nicht einstellen, sondern lediglich bei Second-level-Domains.


    Die WWW-Variante zeigt auf den gleichen Dokumentenstamm, warum sollte dort mit einer .htaccess-Datei keine Weiterleitung möglich sein? Mit mod_rewrite geht das ganz leicht, Stichwort RewriteCond und RewriteRule. Dazu gibt es zig Beispiele im Internet und sogar im Forum.


    Bedenke aber, dass Du manuelle Änderungen an der .htaccess-Datei nach einem Nextcloud-Update erneut hinzufügen musst!

    Danke. Das ist ein guter Tipp. Ich dachte nur, dass ich vielleicht einen Schalter im CCP oder WCP übersehe. Aber offenbar ist dem nicht so.

    Eine Frage ist mir dann doch gerade noch gekommen:

    Bei einer domain.tld kann ich im ConsumerControlPanel bei den Domaineinstellungen unter bevorzugte Domain einstellen, ob ich www .domain.tld und domain.tld nebeneinander mit gleichem Inhalt laufen lassen will, oder ob ich z.B. domain.tld bevorzugen will, und www .domain.tld auf domain.tld weiter geleitet werden soll.


    Für eine Subdomain subdomain.domain.tld finde ich aber keine entsprechende Einstellmöglichkeit. Jetzt verweigert z.B. meine Nextcloud unter cloud.domain.tld den Zugriff per www, da es für die Software eine "fremde" Domain ist. Eine Weiterleitung per htaccess ist aber nicht möglich, da ich im Webhostingcontrolpanel keinen separaten Webspace für die Subdomain www einrichten kann.


    Ist dem tatsächlich so, oder übersehe ich irgendwo in den Untiefen des CCC oder des WCP ein Häkchen? Das ist für mich jetzt kein wirkliches Problem und sowieso eher kosmetisch, aber ich fände es eleganter die Weiterleitung über den Webspace selber zu machen, als über die dort laufende Cloud/Blog/Forensoftware.

    Was genau kann man denn noch als Webhosting-Kunde an den Mails umstellen, damit es noch etwas "besser" läuft. DKIM an sich ist ja schon eingestellt.


    Was ich im Test gefunden habe ist, dass bei dem "Empfänger" im Header z.B. steht:

    dkim=neutral reason="invalid (public key: not available)"

    Gleiche Geschichte bei mir. Da erscheint übrigens zusätzlich einmal dkim=pass bei mir. Der Header sieht bei mir so aus, wie wenn da zwei DKIM-Signaturen wären. Eine passt vermutlich, die andere nicht. Einschlägige DKIM-Testseiten zeigen aber keinen Fehler an. Vielleicht reicht eine gültige Signatur. Sofern sich jemand damit auskennt, wäre ich durchaus auch gespannt.

    Ok. Überzeugt. Ich ziehe die Frage zurück.

    Hintergrund meiner Frage war, dass ich mich oftmals über für mich überraschende Automatismen ärgere, die ich erst aufwendig abschalten muss, oder die gar nicht abzuschalten sind. Das passiert mir hin und wieder nicht nur bei Software, sondern auch bei Haushaltsgeräten und anderen Produkten. Insofern war ich mit meiner Frage etwas vorschnell, als ich festgestellt habe, dass das ControlPanel keine separate www-Subdomain anlegen will, da es diese ja schon automatisch gibt. Bei genauem Nachdenken stelle ich fest, dass die automatische www-Subdomain regelmäßig sehr praktisch ist, und mir tatsächlich kein realer Anwendungsfall einfällt, wo diese schädlich ist. Es gibt sicher Anwendungsfälle, wo die www-Subdomain überflüssig ist, wie z.B. bei der MTA-STS-Policy-Datei. Aber es ist tatsächlich wohl kein Problem, wenn auch Dateien, die nie ein Mensch aufrufen wird, zusätzlich über eine www-Subdomain erreichbar sind. Und mir fällt jetzt auch keine Webseite ein, wo auf webseite.domain was anderes stehen soll/muss/tut als auf www. webseite.domain .

    Hallo Forum,

    die Frage ist nicht allzu wichtig, aber ich bin von meinem bisherigen Hoster gewöhnt, dass "www" eine ganz normale Subdomain ist, die ich explizit anlegen muss, sofern ich sie verwenden will. Hier bei netcup im Webhosting-control-panel wird mir vollautomatisch eine "www"-Subdomain aufs Auge gedrückt, egal ob ich eh schon auf Third-Level-Domain-Ebene bin oder nur auf Secons-LEvel-Domain-Ebene. Anders ausgedrückt: Weder für meine Webseite (meine.domain) noch mögliche Subdomains wie z.B. forum.meine.domain oder blog.meine.domain benötigen eine zusätzliche www-Subdomain.

    Im Customer-control-panel kann ich immerhin einstellen, dass die www-Seite auf die normale Seite weiter geleitet wird (Domaineinstellungen -> bevorzuge Domain). Aber kann ich die automatische www-Subdomain auch löschen? Wie gesagt, es ist jetzt eher ein Lusuxproblem, aber sofern jemand einen Tip hat, oder weiß dass es nicht geht, freue ich mich über eine Antwort :)

    So, habe das jetzt getestet. Funktioniert. Ich verstehe allerdings nicht, was ich mache. Warum gibt es zwei interne IP-Adressen, die sich bei der letzten Ziffer um eins unterscheiden? Die Warnung "Aber Achtung: Zum Verbinden zur Datenbank muss dann logischerweise auch die interne IP-Adresse (10.35.47.94) verwenden werden!" verstehe ich daher nicht.


    Liege ich richtig mit folgender Annahme: Die im Webhostingcontrolpanel angezeigte "internet IP Adresse" ist die interne IP der Datenbank (im Beispiel ...94). Reduziere ich diese um eins (im Beispiel ...93) dann komme ich auf die interne IP des Webservers? Mit der Folge dass ich bei der Software auf der Webseite für die Datenbank natürlich die IP der Datenbank verwende und bei der Datenbank die IP des Webservers?