Beiträge von Hades

    Du könntest dich mal per SSH auf deinen Webspace verbinden und dir beispielsweise die 10 größten Ordner anzeigen lassen, beispielsweise hiermit:

    du -a -B M /httpdocs | sort -n -r | head -n 10

    (das Verzeichnis /httpdocs ist ggf. anzupassen, je nachdem wo du deine Seiten abgelegt hast)

    der sort Befehl wird nicht gefunden. Aber im Netcup Parallels Panel gibt es einen Filemanager der mir die größe aller Dateien berechnet auch außerhalb von httpdocs und auch dort werden maximal 2,78GB angezeigt.


    Klärt mich bitte auf, aber seit wann hat die Fragmentierung einer Festplatte mit der Speicherplatzbelegung zu tun? Fragmentierung beschreibt doch nur den Zustand, dass vereinzelt Dateien über die Festplattensektoren verteilt sind und nicht gebündelt an einer Stelle. Dies ist für mechanische Festplatte weniger optimal, weil der Lese-/Schreibkopf zu viel herum "flitzen" muss.

    Also es hat sich leider immer noch nichts aktualisiert. Ein Wordpress Plugin, "All-In-One WP-Migration" nutze ich für meine Backups. Habe aber heute nochmal knapp 2 GB entfernt aber ich sehe keine Aktualisierung des Speicherplatzverbrauches. Wenn ich mein Wordpress Projekt herunterlade, nimmt es aber nicht einmal 3 GB ein. Ich verstehe nicht woher der Verbrauch kommt.

    Hallo zusammen,


    bin heute vom Support angeschrieben worden, dass mein Speicherplatzverbrauch zu hoch ist und deswegen temporär meine Seite deaktiviert wurde. Jetzt habe ich ein paar Backups, die von Wordpress(Plugin) erstellt werden, gelöscht. Das waren ca. 4GB. Wenn ich die Seite per Filezilla auf meine Lokale Seite ziehe, werden jetzt auch wieder maximal 5 GB eingenommen. Nur im Netcup Panel wird die Anzeige nicht aktualisiert, derzeit werden 11GB angezeigt, wobei es mindestens 4GB weniger sein müssten. Gibt es irgendwas wie einen tmp-Ordner den ich noch leeren/löschen muss?

    Hat Netcup derzeit Serverprobleme?


    Meine Seite ist nicht erreichbar und auf Parallels ist auch die Verwaltung nicht mehr möglich. Sobald ich meine Seite aufrufe:

    Die aufgerufene Webseite steht derzeit nicht zur Verfügung. Bitte versuchen Sie es später erneut.

    Sollten Sie der Inhaber der Domain sein und diese Wartung nicht veranlasst haben, setzen Sie sich bitte mit dem Support in Verbindung.

    --------------------------

    Das einzige was ich gemacht habe, waren kleinere Tätigkeiten mit GoogleSpreadSheet und meiner Page.


    Könnte dass zu einer automatischen Deaktivierung führen, weil untypischer Traffic entsteht?

    Ich habe MySQL mit PhpMyadmin und auch Postgres installiert local, das ändert aber nicht den Umstand dass die Daten meiner Anwendung die lokal auf dieser DB gespeichert sind, irgendwie auf meinen Webhoster landen müssen.


    Über einen Raspi habe ich auch schon nachgedacht um meine Wordpress Seite privat zu hosten. Aber die Kosten im Jahr für Strom und Domain sind minimal geringer als bisher für Netcup(pro Jahr 24€). Der Umstand dass ich keine großen Kenntnisse über Netzwerksicherheit habe, bereiten mir Kopfschmerzen, selbst bei diesem Hobbyprojekt mit einem Userstamm von 15 Usern :D.


    Ich verstehe gerade nicht was du mir mit der H2 DB Info vermitteln willst. Wie gesagt, ich will eigentlich nur noch eine DB, die die online ist, damit ich nicht immer exportieren/importieren muss von DB 1 zu DB 2.


    Fertige DBs über Cloud muss ich mir mal anschauen, aber ich gehe stark davon aus, dass die alle nicht sehr günstig sind.

    Wie oben schon etwas umrissen, ich habe mir eine Java-Anwendung geschrieben die bisher ihre Daten in eine DB-SQLite speichert, also einer Standalone Datenbank ohne Serverumgebung. Die Daten die dort gespeichert werden, müssen dann von mir händisch aus der Datenbank exportiert werden als CSV und werden dann von mir in PHPMyAdmin importiert auf meinem Webhoster. Jetzt bin ich auf Hibernate umgestiegen und da ist SQLite nicht so geil, daher auch direkt der Gedanke dass alles über die Remote-MySQL-DB zu machen. Dann kann ich mir endlich das händische Exportieren sparen und habe statt 2 nur noch eine DB.


    Aber wenn die Verbindung nicht funktioniert, muss ich wohl doch das ganze mit JSON/XML umsetzen, da hatte ich bisher aber wenig Lust drauf, weil das bedeutet auch wieder ein serverseitiges Skript welches das ganze annimmt, welches ich programmieren muss. Ich suche halt eine Lösung die mir so wenig wie möglich Arbeit macht :D

    Probiere mal ssh -L 127.0.0.1:3306:10.x.x.x:3306 user@server und dann kannst du mit deinem lokalen MySQL Client auf 127.0.0.1 dich verbinden und landest auf dem Netcup Server.


    Bei PuTTY gehst du über Connection -> SSH -> Tunnels :: Source-Port: 3306 | Destination: 10.x.x.x:3306 | Local | IPv4 -> Add

    Also ich bin wie folgt vorgegangen:

    ssh -L 127.0.0.1:3306:Datenbankserver_ip:3309 DenAllgemeinenUser@UndDieDomainMeinerHP

    Dann habe ich das Passwort eingegeben und das Login war erfolgreich.


    Dann habe ich das bei Putty eingestellt aber mir war nicht ganz ersichtlich was das bewirkt, habe aber Putty laufen lassen.


    Mit PHPMYAdmin habe ich versucht dann die Verbindung aufzubauen, dort kam dann in meiner Konsole folgende Ausgabe:

    Channel 2:open failed: admistratively prohibted: open failed


    Optionen wie sie nitram auf seinem Screen hat, habe ich mit meinem Panel gar nicht.

    Mir war nie bewusst dass ein Klasse A Netz generell private ist im Sinne von außen nicht erreichbar.


    Ich habe eine Java Anwendung die per Hibernate/JDBC auf ein lokale MySQL DB zugreift. Die möchte ich aber umschreiben und die Verbindung direkt mit meiner Netcup-DB aufbauen.

    Bevor ich aber das aber mache, wollte ich hier erst mal testen ob ich eine einfache Verbindung aufbauen kann extern.


    Anscheinend nicht.

    Abend zusammen,


    ich versuche gerade vergeblich eine SSH-Verbindung mit Putty oder CMD aufzubauen.

    Bei CMD folgende Syntax ssh -p 3306 user@server oder auch ssh user@server ( Da ist Port 22 per Default).

    Bei Putty ähnliches vorgehen. Ich bekomme bei beiden immer ein "Connection timed out"


    Als IP-Adresse wird der Datenbankserver eingetragen 10.X.X.X und als User der Datenbankbenutzer. Ist die IP des DB-Servers ein Subnetz?

    Oder muss ich SSH explizit freischalten?


    Danke im Voraus.

    Hallo zusammen,


    folgende Skripte nutze ich um einen beliebige andere Skripte fertig generiert abzulegen damit sie nicht permanent neu ausgeführt werden müssen:

    PHP
    <?php
        $cachefile = 'recanalyst/cache/'. $datePath . '.php';
        if (file_exists($cachefile)) {
            echo "Ja ich bin da";
            include($cachefile);
            exit;
        }
        ob_start();
    ?>
    PHP
    <?php
        $fp = fopen($cachefile, 'w');
        fwrite($fp, ob_get_contents());
        fclose($fp);
        ob_end_flush();
    ?>

    Auf meinem lokalen Xampp Server funktioniert das anstandslos, Eine Datei wird im Ordner recanalyst/cache/ gespeichert, diese kann ich also ganz normal einsehen. Leider ist auf meinem Webspace das Verhalten anders, zwar funktioniert das Schreiben wie gewünscht und es wird anscheinend eine php-Datei geschrieben aber sie ist nicht am Ort recanalyst/cache/ . Ich habe mir den kompletten httdocs Ordner heruntergeladen um nach einer File zu Suchen, aber kein Erfolg. Es wird aber definitiv eine Datei erzeugt, denn ein simples echo im If-Block wird ausgegeben, sobald die Datei einmal erstellt wurde.


    Habt ihr eine Idee wo diese Datei landet?


    EDIT: Kann geschlossen werden, die Dateien sind da, hat wohl was länger gedauert.

    Also die Skripte werden mittels eines PHP-Plugins auf einer Seite ausgeführt. Wenn ich die Dateinamen ändere, werden die mit dem aktuellsten Status angezeigt. Merkwürdigerweise werden HTML-Seiten die durch die Skripte inkludiert werden immer im aktuellen Status angezeigt. WP-Seitig ist kein Plugin aktiv was etwas zwischen speichern würde. Auch ein Plugin welches ich gestern noch installiert habe zum Löschen des ganzen Caches, half nicht.


    Ich werde berichten wenn ich Neuigkeiten habe.

    Hallo zusammen,


    gestern habe ich mit Filezilla drei PHP-Skripte hochgeladen, soweit funktioniert auch alles. Nach dem ich lokal kleinere Veränderungen vorgenommen habe, habe ich die wieder auf meinen Webspace hochgeladen und die alten überschrieben.


    Problem ist aber die Skripte haben sich nicht aktualisiert, es wird immer die alte Version aufgerufen. Als Gegenprüfung habe ich die Skripte heruntergeladen und mir angeschaut, der Inhalt ist aktualisiert, trotzdem werden die aktuelle Skripte nicht ausgeführt. Anschließend habe ich dann den Browser Cache geleert und auch mal den Browser gewechselt, keine Veränderungen. Ebenso ergab eine Löschung der Skripte und neu hochladen der Skripte keine Veränderungen. Das ganze spielt sich auf einer Wordpress-Seite ab.


    Nun stellt sich mir die Frage, ob die Netcup-Server die Skripte cachen oder ob Wordpress mitmischt? Wie kann ich meinem Problem entgegnen ohne die Skripte umzubenennen?

    Das hat jetzt funktioniert. Aber warum wird das httpdocs komplett ignoriert?

    Hallo zusammen,


    ich habe Bilder auf meinem Webspace per SFTP hochgeladen und möchte diese in einem PHP-Skript einbinden. Aber egal wie ich die Pfade setze oder sogar den Ordner außerhalb von httpdocs platziere, ich bekomme immer den 404 Fehler.


    Code
    echo $_SERVER["DOCUMENT_ROOT"];

    Ausgabe: /var/www/vhosts/hostingblabla.netcup.net/httpdocs


    meine Bilder befinden sich laut SFTP

    sftp://sub@Blabla/httpdocs/images/mallorca/10.png


    Darf ich keine Bilder verlinken? Hat das was mit Rechten zu tun?