Beiträge von paule89

    Nachtrag: Die DNS-Zonen werden auch nicht sauber von den DNS-Servern von netcup gelöscht. Es sieht fast so aus, alsob das Externe-Domains-Löschen-Script im CCP irgendwo abbricht. Auf einem DNS waren die Domains runter, vom anderen nicht.


    Nachtrag Support:

    Gleich heute 8 Uhr hat sich die Operations-Abteilung meinem Anliegen angenommen und alle Probleme manuell binnen Minuten gelöst. Meine Anfrage diesbezüglich an der Beschwerdestelle wurde auch in Rekordzeit beantwortet. Ich bin durchaus zufrieden mit der Problemlösung. Problem behoben, Bugs auf der Todoliste und eine Info an den Support, betreffend dieses Problems.

    Hallo an alle ... ich bin hier der neue ;)

    vor ein paar Jahren in der Informatikerausbildung habe ich mal ein kleines Hackergame auf Javascriptbasis geschrieben. Ziel ist es den Javascript-Passwortschutz mittels Quelltext auszulesen. Wer interresse hat kann es sich gerne mal Anschauen und Voten. Bruteforceataken und ähnliches sind weder notwendig noch erwünscht.


    http://hackergame.paule89.de/


    LG. Paule89

    Hmmm entweder 3 Monate warten, oder dich mittels google webmastertools als Inhaber der Seite registrieren. Und im Anschluss sie da rauslöschen.



    ... das ist etwas skurril ... aber man muss sie erst anmelden und sie dann löschen zu lassen.... oder man wartet bis er sie scrollt und die robots.txt liest.



    https://www.google.com/webmasters/


    Du kannst übrigends mit einer Suche "site:webseite.de" prüfen was google alles von der Seite erfasst hat.

    Thats what he said 8o

    Das Problem kenne ich .... v6 erhällt von netcup ne falsche route und dann is v6 plötzlich weg. Zudem hat sich bei meinem bewährt v6 noch vor v4 einzurichten


    versuch doch mal:


    /etc/network/interfaces:

    -----------------------------------------

    auto lo

    iface lo inet loopback


    iface ens3 inet6 static

    address 2a03:4000:8:352::1337

    netmask 64

    accept_ra 0

    gateway fe80::1


    iface ens3 inet static

    address 37.221.195.199

    netmask 255.255.252.0

    broadcast 37.221.195.255

    gateway 37.221.192.1

    ------------------------------------------



    LG. Paule89

    Du könntest versuchen mittels .htaccess den googlebot zu blockieren. Dann gibts es eine Robots.txt an welche sich Suchmaschienen aber nur freiwillig halten.

    Wenn du mit einer index.php arbeitest könntest du den $_SERVER('HTTP_USER_AGENT') auf google prüfen und mit einem header('HTTP/1.0 403 Forbidden', true, 403);. antworten


    https://www.sistrix.de/frag-si…meiner-website-verbieten/

    https://wiki.selfhtml.org/wiki/Grundlagen/Robots.txt

    https://support.google.com/webmasters/answer/1061943?hl=de

    Nachtrag:

    -----------------------------

    Vielen Dank!

    Wir haben Ihre Nachricht erhalten. Wir sind Ihnen dankbar, dass Sie uns die Möglichkeit geben, uns zu verbessern. Ihre Anfrage werden wir ausführlich auswerden und die betroffenen Mitarbeiter dazu kontaktieren. Bitte geben Sie uns dafür etwas Zeit. Bitte rechnen Sie mit einer Bearbeitungszeit von maximal sieben Tagen.

    Bei dringenden Problemen kontaktieren Sie bitte zusätzlich unseren Support. Das Beschwerdemanagement arbeitet unabhäging von diesem und benötigt mehr Zeit um Beschwerden so aufzuarbeiten, dass wir eine bestmögliche Lösung für Sie finden können.


    ----------------------------


    Bitte Rechtschreibung prüfen.

    auswerden, unabhäging

    Bei der Nutzung der Beschwerdestelle ist sind mir 2 kleine Fehler aufgefallen:

    - der Link in den Supportmails hat bei "sname=" den Fehler das die Leerzeichen nicht für die URL codiert werden, es wird also nur der Vorname übertragen

    - Die Fehlermeldung "Sie können uns nur alle 10 Sekunden eine Nachricht zukommen lassen" kommt auch wenn man noch garkeine abgesendet hat, sondern nur Zb. den Link in einem 2. Tab öffnet

    - Die Fehlermeldung "Sie können uns nur alle 10 Sekunden eine Nachricht zukommen lassen" enthält einen vertippter:


    Fehler:
    Sie können uns nur alle 10 Sekunden eine Nachricht zukommen lassen.
    Bitte warten Sie 240 Sekundeb schreiben Sie uns Ihre Mitteilung erneut.

    Vielen Dank!

    Guten Tag und ein Gruß an alle Forennutzer.


    Mit ist ein BUG bei der Benutzung externer Domains im CCP aufgefallen.


    Trägt man eine externe Domain in das System ein und bestätigt diese (per DNS Eintrag), wird sie ordnungsgemäß bei dem Webserver und bei dem Mailserver eingetragen.


    Löscht man die Domanis aber wieder aus der Sektion "Externe Domains" dann wird sie nur bei dem Webserver gelöscht - bleibt aber bei dem Mailserver eingerichtet.


    Wenn man jetzt an eine dieser "weggezogenen" Domains eine E-Mail senden möchte, mit einer E-Mailadresse welche noch im Webhostingpaket ist - kommt es zu folgendem Problem:


    Der E-Mailclient sendet per SMTP die E-Mail an den Netcup Mailserver. Dieser hat aber noch die "weggezogene" Domain im Portfolio und versucht sie nur Lokal zuzustellen. Dh. diese E-Mail verlässt nicht den Netcup Mailserver und kann so nicht an den richtigen Mailserver gelangen.


    In meinem Fall wollte ich eine Domain (welche nächstes Jahr auslaufen soll) von dem NetCup-Paket webhosting 2000 mit verwalten lassen.


    Blöderweise hängt aber mein bisheriger Domainbot immer den Domainnamen mit an. Und leider fühlt sich der Plesk-Mailserver unter dem Namen mx2f11.netcup.net.pauls-seiten.de nicht angesprochen. Nicht einmal wenn ich dafür einen A-Eintrag auf die richtige IP setze. Also habe ich mir eine andere Hosting Möglichkeit gesucht und die 2 Domains wieder bei "externe Domains" entfernt.


    Diese Einstellung wurde aber nicht an mx2f11.netcup.net übertragen, was zu dem besagtem Problem führt.


    Ich habe ein Supportticket erstellt und das Problem geschildert. Man verweißt aber darauf dass, die Domains nicht mehr im CCP-Stehen und der DNS-Eintrag woanders hinzeigt. Darauf dass der Mailserver aber die Domains noch führt, incl. Screenshot, wird nicht eingegangen. Wenn sie also an diesem Bug programmieren entfernen sie bitte gleich die pauls-seiten.de und die paul-reichel.de aus dem Plesk-Domainpool von mx2f11.netcup.net danke.