Hallo,
danke für die Infos.
Da sich der Baiduspider nicht für die robots.txt interessiert und ich von einer Suchmaschine, die 48mal am Tag die gleiche Datei anfordert, nicht viel erwarte, habe ich einfach mal die beiden IPs gesperrt. Mal sehen, wie lange die sich mit einem 403er zufrieden geben.
Gruß, Jürgen