Danke für die sehr interessanten Ausführungen.
Der Vorteil meiner Seite ist, dass der Verkehr sehr überschaubar ist. Für "schlanken Webkram" bin ich auch sehr zu haben, aber Cachen von Content dürfte bei mir vorerst nicht nötig sein. Meine Seiten benötigen selbst bei einem Hürdenlauf über mehrere Skripte im abgesicherten Bereich immer noch deutlich unter einer halben Sekunde, 200 ms sind in etwa normal.
Die Spuren von Angriffen, die Dritte betreffen können, habe ich bei mir noch nicht gesehen (außer indirekt, wenn nach den Lücken bestimmeter Installationen gesucht wird).
Während ich abwarte, wie sich der Suchmaschinenverkehr auf meiner Seite entwickelt, bastle ich weiter an der Erkennung unerwünschter Besuche.
Es ist teilweise schon unverholen dreist, was da zu finden ist. Heute morgen zB. ein XSS-Test durch JS im URL. Ursprung: googleusercontent.com
Wenn da mehr gekommen wäre (oder noch kommt), würde ich schon über eine abuse-Meldung nachdenken.