Das Problem sind vielleicht die verschiedenen Standorte:
Hetzner RZ: Ökostrom: Hetzner Online AG: Umweltschutz
Netcup RZ: wenig Details bekannt (möglicherweise auch Strom über Hetzner bezogen)
Telemaxx RZ: keine Infos bei Telemaxx, wohl kein Ökostrom
Beiträge von Dragon
-
-
Zitat von martin',
Wenn die Webseite nicht mehr genutzt wird, dann geb' ihm doch einen 301 oder einen 404 mit. Dann dürfte der Bot nicht mehr kommen - denke ich.
Das weiß ich nicht genau, die Domain ist mittlerweile wieder in Betrieb. Allerdings sucht er auf der aktuellen Website immer noch Unterseiten, die es schon mehrere Monate oder Jahre nicht mehr gibt (404). Und, die die "erst" mehrere Monate weg sind, sind auch weiterhin im Index. Früher war das jedenfalls nicht so. -
Und das sagt wer ? Die, die Google Verboten haben? Wer Kontrolliert die? in Deutschland muss Google EU Normen erfüllen, die dinger aus China ... wer weiß.
EU Normen für Suchmaschinen-Crawler wären mir neu... Auf meiner Website verhalten sich alle Crawler der großen Suchmaschinen korrekt, darauf achte ich schon...
Ich mags ned ungefragt in irgendeiner Suchmaschine aufzutauchen, vielleicht wollte ich ja nicht, dass meine Homepage in irgendeiner (nichtmal Google) Suchmaschine auftaucht
Dann leg die robots.txt an, ansonsten ist das Internet öffentlich. Oder fragst du erst in jedem Geschäft, ob du ins Schaufenster schauen darfst?und selbst für google muss man sich erst anmelden ... und man hat die Möglichkeit sich wieder austragen zu lassen.
Unsinn, die robots.txt ist das wichtige. Ohne die kommst du auch bei Google nicht aus dem Index.
Sorry, aber 1. Wurde ich nicht benachrichtigt (whois hätte meine E-mail herausgegeben)
2. finde ich es eine Frechheit, dass irgendwelche Bots meinen Server scannen ... ich lauf auch nicht durch die Straße und schau in "JEDES" Fenster unter der Gardine durch ...
Nochmal, das Internet ist öffentlich, daher ist der Vergleich unpassend. Das Mittel zur Steuerung der Bots existiert ja, man muss es nur anwenden.
Zumal der Bot vermehrt pro Stunde auf meinem Server kommt ... er spammt mir förmlich die logfiles voll.
"vermehrt pro Stunde". Harmlos... Google kommt bei mir exakt alle 2 Stunden auf eine seit Jahren unbenutzte Seite, die nur einen 403 zurück gibt. Auf der richtigen Website sind die Crawler praktisch rund um die Uhr aktiv. Bing kommt danach und die restlichen sind seltener unterwegs, auch Baidu und Yandex.ja aber die Datei müsste dann in jeden "unterordner", damit diese nicht gescannt werden oder schickt das root verz ?
Eine im Root-Verzeichnis reicht vollkommen. -
Baidu ist eine seriöse Suchmaschine. Google crawlt da viel häufiger und aggressiver.
-
Und was steht im Syslog bei der entsprechenden ID?
-
GMail ist eben in der Datenbank, der Grund liegt ja wohl auf der Hand...
-
Die Daten stammen aus einer Datenbank bei Mozilla, da wirst du nicht so schnell rein kommen.
-
das dann sofort funktioniert?
Was meinst du? -
Du hast einen vServer? Hast du MySQL so konfiguriert, dass es einem nach außen sichtbaren Port läuft?
-
Nein, das geht dort nicht.
-
Ich benutze so ein Code und das funktioniert auch. Die Variante mit exec ganz unten funktioniert ebenso, exec muss halt verfügbar sein.
-
PHP: php_check_syntax - Manual (Funktion wurde mit 5.0.5 entfernt, aber die Kommentare sind interessant)
-
Wenn du keine Ahnung von vServern hast, würde ich auf jeden Fall davon abraten.
-
ein 500 Eroor darf nicht passieren.[/color]
Warum nicht, das ist genau der richtige Status-Code für Fehler? -
Dann hat man aber ein Problem, wenn man hinter einem Proxy sitzen muss... Und die anonymisierungs-Proxies werden sich wohl nicht zu erkennen geben.
-
Einige andere Browser bieten diese Funktion sogar ohne Addon...
-
Das ist halt keine Entwicklungsumgebung, die Fehler anzeigt...
Von welchem Image redest du überhaupt? -
Einfach den Quelltext des VCPs anschauen...
-
Du musst den cached-Wert davon abziehen.
-
Nein, das sieht man z.B. mit netstat.