Hi Roland,
robots.txt einzusetzen funktioniert, wenn sich die Robots daran halten. Meinst du, ein Spammer baut das in seinen ein?
Schaden kann es jedenfalls nicht, oder? Ansonsten wollte ich auf meine UserAgent-Abfrage eignetlich nicht verzichten. Irgendwelche Ideen für eine bessere Lösung?
Viele Grüße
Torsten
--
ss:| zu:) ls:] fo:) de:[ va:| ch:? sh:( n4:~ rl:? br:> js:| ie:% fl:( mo:)
ss:| zu:) ls:] fo:) de:[ va:| ch:? sh:( n4:~ rl:? br:> js:| ie:% fl:( mo:)