8 Tage? WTF? Ich hab noch nie länger als einen Tag für einen Transfer gewartet. (Ok vll zwei mit Fax abends abschicken). Weder bei org, net, noch bei de.
Beiträge von martin\
-
-
Vorsicht Server!
-
Das Rettungssystem nimmst du, wenn du dich z. B. durch irgendwelche falsch Konfigurierten Scripte vom Server ausgeschlossen hast. Dann kannst du deinen ganzen Server als Ordner auf einen anderen Server mounten und so dein System reparieren. Mit Backups hat das ganze nichts zu tun - jedenfalls wäre es mir neu.
-
-
Über SixXS habe ich bei mir auch die v6 Konnektivität hergestellt. Grundsatz-Artikel zu IPv6 sollte es bei heise ein paar geben, musst mal deren Suchfunktion quälen. Bei mir auf dem Server laufen im übrigen alle Dienste im Dualbetrieb mit v4 und v6 (ftp sogar nur über v6) und es gibt bisher keine Probleme.
Bei mir läuft SixXS auch ohne Zusatz-Software. Ich habe nur den Treiber installiert und starte beim Systemstart ein Terminal, dass mir die Verbindung aufbaut und sich dann in den Hintergrund verschiebt.
-
Datei müsste dann in jeden "unterordner", damit diese nicht gescannt werden oder schickt das root verz ?
Nein, die muss ins root-Verzeichnis deines Webservers, wo auch in die index.* drin liegt. Mit "Disallow: /" verbietest du dem Crawler, dass er eben genau dieses Verzeichnis auslesen darf. Du kannst Ihm mit Disallow: /bla/ auch einzelne Ordner verbieten oder mit Allow: /bla/ einzelne Ordner erlauben.Das ganze funktioniert nur, wenn du sie robots.txt (!) und nicht bot.ini oder bot.txt nennst. Ignorieren wird die Datei keine der größeren Suchmaschinen, das kannst du ja aber ganz einfach in den logs feststellen. Probier das doch einfach mal aus, bevor du mit Kanonen auf Spatzen losgehst und iptables* oder irgendwelche Scripte installierst, schließlich ist die robots.txt für genau diese Fälle gedacht.
Wenn dir der Bot deine Logs zu voll spammt, dann ist für dich obiges interessant, alternativ auch Crawl-delay: und dahinter eine Sekunden-Anzahl. Das legt fest, wie oft eine Seite gecrawlt werden darf.
"vermehrt pro Stunde". Harmlos... Google kommt bei mir exakt alle 2 Stunden auf eine seit Jahren unbenutzte Seite, die nur einen 403 zurück gibt.
Wenn die Webseite nicht mehr genutzt wird, dann geb' ihm doch einen 301 oder einen 404 mit. Dann dürfte der Bot nicht mehr kommen - denke ich. -
Was sagen denn die Apache vhost-configs für die Domain? Poste die mal oder schick sie mir per pm.
-
bot.ini? Eigentlich ist der simpelste Weg eine robots.txt - Probiers mal damit:
ZitatUser-agent: Baiduspider
Disallow: /
Wenn du alle bots aussperren willst, dann kommt statt Baiduspider eine Wildcard hin. -
Also wenn du nur die IP im Browser erreichen willst, dann musst du sie in eckige Klammern setzen [IP]. (fast) Alle Browser prüfen, ob zuerst, ob es eine v6-IP für eine URL gibt, bevor sie die v4 auflösen. Also sollte dein Browser idR immer die v6 ansurfen.
-
Wieder was gelernt
-
eigenen Server bräuchte, also einen vServer mit fest zugewiesenen Ressourcen, auf dem meine Seite keine anderen Kunden "stören" könnte.
Was ist das denn für eine Aussage? oO Als ob es auf vServern keine Möglichkeit gäbe, andere Kunden zu stören... -
visudo sollte genau das sein, was du brauchst. (Ist zwar für Ubuntu, aber grundsätzlich auf alle Systeme übertragbar, wenn installiert).
-
Dreckig deswegen, weil er ja nicht genau weiß, welches Programm welche php.ini verwendet. Und da erstmal ALLE zu ändern ist dreckig
-
-
Dann aktivier' doch, dass du phpinfo wieder nutzen kannst. Das ist schätzungsweise in den disable_functions deaktiviert.
-
Auch gestoppt?
-
Wir haben hier noch etliche Becher mit altem Logo.
Gab's auch Becher mit dem neuen Logo? -
Die ist von Netcup
-
Ich verkauf' euch meine, die ist sogar noch unbenutzt - und die Blöcke auch!
-
Bei uns schneit es gerade -.-