Hi Gunther,
Es gibt aber auch einige Dinge, die man selber tun kann, bzw. in jedem Fall machen sollte:
- robots.txt für die relevanten Verzeichnisse erstellen
Habe ich. Könnte ich aber noch mal auf Korrektheit und Vollständigkeit prüfen.
- passende HTTP-Header senden (z.B. 410 Gone)
Aha, wenn 7 Jahre lang immer 404 gesendet wird, ist das nicht ausreichend? ;-)
Und wenn alles nichts hilft, könnte man auch noch versuchen, sich hilfesuchend an Google selber zu wenden (keine Ahnung, ob das was bringt, aber einen Versuch sollte es wert sein).
Ja, das werde ich machen, in der vorgeschlagenen Reihenfolge, erst mal 410 Header für die Kandidaten senden, und mal 1-2 Monate warten obs was bringt.
Dann wäre der Errorlog höchstens noch ein Drittel so lang, und der verbleibende Rest sind dann zu ca. 98% Bots die nach Standardschwachstellen suchen, oder wie man das nennt: von IP 210.83.81.80 wurden z.B. in weniger als 1 Minute 87 Einträge erzeugt mit Kombinationen zu einem Admininterface, wie z.B. /webeditor/admin_login.asp. Die IP verweist auf einen Chinesichen Rechner, der anscheinend zu einem Hoster gehört. Wenn man die IP übern Browser aufruft bekommt man die phpinfo() angezeigt. Wenn man die IP bei Google eingibt findet man ähnliche Berichte z.B. in einem chinesichen WordPress-Forum usw. Wenn ich wüsste, wie man zuverlässig solche Zugriffe (alle nach dem 1.) sperren könnte, würde ich es sofort machen.
Merci,
Jannes