Hi,
wir hatten das Thema ja die Tage bereits angerissen...
Es ist nichts neues, dass im Internet Bots, Crawler, Spider (und wie sie alle heißen) unterwegs sind, und versuchen, Sicherheitslücken zu finden oder Schadcode auszuführen. Oder die E-Mail Adressen suchen, um einen dann mit Spam zuzuballern. Auch wenn bei meinem Apache2 und meinen Webseiten eigentlich alles sicher ist - ich möchte mir sowas trotzdem ganz gerne vom Hals halten...
Fail2Ban ist nur bedingt eine Lösung - ich sag mal so, 5 Minuten nach Aktivierung der Filter hat mich mein Co-Admin gefragt, warum er nicht mehr auf unsere Nextcloud drauf kommt. Danke dafür. xD
Aber auch von der Taktik her. Damit Fail2Ban bannen kann, muss immer mindestens erstmal ein Request erfolgen. Und dann bannt der auch nur für einen gewissen Zeitraum. Klar, das kann man einstellen, aber auch nicht auf für immer. Für immer würde ja auch heißen, dass false Friends für immer gebannt werden. Das ist auch keine Lösung...
Theoretisch kann man über iptables viel machen, aber auch dafür muss man auch erstmal die ganzen Port Ranges kennen. Auch nicht so die Musterlösung.
Gibt es überhaupt eine Musterlösung? Wie tretet ihr dem Problem gegenüber?
Was wäre eine möglichst effiziente Maßnahme, dessen Aufwand im halbwegs im Verhältnis zum Nutzen steht?