Hi Matthias,
War das Stückchen Code richtig ?
Deine Frage ist genau dann mit "ja" zu beantworten, wenn Dein regular expression mit dem tatsächlichen UserAgent des Robots matched. Deine Idee ist zumindest richtig - ob Dir das etwas nützt, sei dahingestellt (denn auch 8000 abgelehnte Anforderungen setzen Deinen Server unter entsprechende Last - womöglich sogar mehr als die normalen Anforderungen, wenn Deine Fehlerbehandlung (ErrorDocument?) entsprechend aufwändig ist ... ein entsprechender Mechanismus "weiter vorne" in Deinem Netzwerk (Router? Proxy?) würde vielleicht besser greifen.
Du hättest Dir diese Frage übrigens selbst beantworten können: Konfiguriere Dir eine solche Blockade für _Deinen_ Browser für ein Test-Verzeichnis - und probiere aus, ob sie greift.
Viele Grüße
Michael
T'Pol: I apologize if I acted inappropriately.
V'Lar: Not at all. In fact, your bluntness made me reconsider some of my positions. Much as it has now.
(sh:| fo:} ch:] rl:( br:^ n4:( ie:% mo:) va:| de:/ zu:| fl:( ss:) ls:~ js:|)
=> http://www.peter.in-berlin.de/projekte/selfcode/?code=sh%3A|+fo%3A}+ch%3A]+rl%3A(+br%3A^+n4%3A(+ie%3A%25+mo%3A)+va%3A|+de%3A%2F+zu%3A|+fl%3A(+ss%3A)+ls%3A~+js%3A|
Auch diese Signatur wird an korrekt konfigurierte Browser gzip-komprimiert übertragen.