Tag Ingo.
Ich glaube schon, daß Google (und andere gut programmierte Suchmaschinen) dies zumindest versuchen.
Ja, das wird immer wieder gern vermutet, aber keiner kann es belegen. Dass man Seiten bei Google anschwärzen kann, die ganz offensichtlich Spamming betreiben, steht auf einem anderen Blatt und bestärkt mich in der Meinung, dass technisch gesehen eine Auswertung in dieser Hinsicht nicht erfolgt. Es gibt auch Seiten, auf denen behauptet wird, dass der Bot nach mehrmaligem Besuch solcher Seiten Warnungen ausgibt, denen je nach Häufigkeits- und Schweregrad dann in der Tat ein *Mensch* nachgeht. Aber auch das ist nicht belegbar.
Und wenn display:none im inline-style notiert ist, dürfte das auch ein sehr deutkliches Indiz sein. Weitere Indizien können sein, _was_ da verborgen wird; ein Ankersprung dürfte da recht eindeutig sein.
Das sind aber alles Dinge, die ein Bot nicht erkennen kann, da es zu umfamgreich ist. Ich habe bspw. auf einer meiner Seiten die HP-Überschrift mit Hilfe von CSS versteckt, damit nur diverse Steinzeitbrowser, die mit der CSS-Definition für das Banner nicht zurecht kommen, diese sehen. Google hat sich daran bisher nicht gestört.
Außerden hatte Google vor einigen Monaten intensiv CSS-Files gespidert; ich gehe davon aus, daß die auch ausgewertet wurden, um gerade solche Unterscheidungen treffen zu können und die sinnvollen Ausblendungen vom SPAM abgrenzen und erkennen zu können. Anzeichen könnten z.B. sein, daß für den betreffenden Selektor (über :hover) zusätzlich noch gegenteilige Definitionen vorhanden sind.
Wie gesagt, ich kann es mir nicht vorstellen, es sind einfach zu viele mögliche Anzeichen. Ich kann mir einfach nicht vorstellen, wie ein derart komplexer Algorithmus in ein Stück Programmcode integriert werden kann.
nunja, man kennt doch http://www.google.com/technology/pigeonrank.html ;-)
Hehe, der passt gut zu dem hier ;-))
Siechfred