Beiträge von ArtCore7

    Problem liegt eher bei deiner Installation, ich hatte mal Testweiße Elementor auf einer Seite auf einem Netcup Webhosting als Test.

    Ob der oben gezeigte Fehler damit zusammenhängt kann ich dir nicht sagen, aber du kannst mal in PHPmyadmin prüfen ob die Tabelle "k174xxx_wordpress_3.8deGdhS_e_submissions" existiert. Das wird ja eindeutig bemängelt, dass dies nicht der Fall ist. Auch der Tabellenname kommt mir spanisch vor. Sollte wohl eher die Tabelle e_submissions sein wenn du das Prefix von wp_ zu e_ geändert hast.

    Naja manchmal braucht man sich nicht wundern... Oft sind Zugangsdaten zu Servern etc. auf github unwissentlich öffentlich gepostet...

    Gerade mal zum Spaß gesucht...

    Zack Zugangsdaten zum CCP & einem Server gefunden...

    Und wenn man denkt in mein Git guckt doch eh keiner rein um Secrets zu klauen, liegt man sehr falsch. Habe auch mal https://github.com/eth0izzle/shhgit mitlaufen lassen und was da zusammenkommt ist nicht wenig.


    Klar sind da auch viele false-positive oder Honeypots dabei. Aber gibt auch genug reale Secrets.


    Screenshot_20211209-071931_Chrome.jpg

    - diese Möglichkeit habe ich in Netcup nicht gefunden.

    Willst du das ganze auf einem Webspace installieren? Wenn ja dann vergiss es. Finde persönlich eh eine Nextcloud gehört vorallem nicht auf ein Shared Hosting, aber das ist wiederum ein anderes Thema.

    Weiß nicht mehr auf was das alles prüft, aber so sieht der Header einer Sicherung aus. Ich glaub er prüft auf ABSPATH, Home Url und Datenbanknamen und Table Prefix. Somit kann man es eigentlich überall einspielen. Dazu kommt noch dazu das die Sicherung eigentlich auch via SQL eingespielt werden kann, da es nichts anderes ist wie ein SQL Export:


    Was ich damit sagen will, auch wenn man mal den Server umzieht sollte es kein Problem geben die Daten wieder reinzubekommen auch ohne Pro Version. Mir war eben die Sicherung auf Google Drive wichtig. Jeden Tag ein Datenbank Backup, davon die letzten 365 behalten. Und alle 30 Tage eine komplette Sicherung und davon die letzten 9 behalten.

    Macht bei meiner Seite aktuell: Datenbank (((7MB * 365) = 2.555MB) + Komplett ((1GB * 9) = 9.000MB)) = 12GB auf der G-Cloud die ja 15GB frei bietet. Was anderes hab ich da nicht drauf liegen :D

    Klar bei großen Seiten muss man sich das dann anpassen oder mehr Cloud Speicher haben :D

    listen tcp4 0.0.0.0:80 / -p 80:80

    Du probierst ja dem ReDash Container zu sagen er soll auf Port 80 für Anfragen lauschen. Hier läuft aber schon dein Apache. Des Weiteren öffnest du ihn überall hin. Wegen dem 0.0.0.0:80. Mein Vorschlag ist du startest den ganzen mit

    Code
    -p 127.0.0.1:1234:80

    somit ist der Container erstmal nur vom Localhost erreichbar. Den rest machst du dann mit deinem schon laufendem Apache (Virtualhost der ein Proxy auf 1234 darstellt)

    Bei Updraft Backup wird es zwar nur bei der Pro Version beworben wenn es um eine Migration geht, passt man aber den Header des Backups an (URL und nochmal irgendwas, müsste gucken, hab es selber schon gemacht.) dann geht es ohne Probleme. Vorteil ist eben das automatische Speichern in der Cloud hat mir schonmal den Hintern gerettet ?

    Geht es rein um eine WordPress Seite? Dann würde ich dir Updraft Backup als Plugin empfehlen. Dieser lädt es dir wie oben schon genannt in die Google Cloud. Hier kann man einstellen wie oft nur ein Datenbank Backup und wie oft ein volles Backup gemacht werden soll. Dies kann man dann wenn gewünscht natürlich auch lokal herunterladen.


    PS: Free Version reicht hier vollkommen.

    Mit WP Query Monitor kannst du ganz genau gucken, welche Querys oder Requests so lange brauchen. Nettes Tool zum analysieren. Beim Webhosting waren bei mir gerade die DB Querys die sich stark summiert haben und deswegen die lange Ladezeiten.


    Hier mal ein Beispiel auf einem VPS 500:

    Leere Admin Seite:

    Screenshot_20211203-080239_Chrome.jpg

    Live Seite mit einigen Plugins:

    Screenshot_20211203-080707_Chrome.jpg