Hi,
Es geht ja um zwei Dinge: Zum einen möchte man nicht _unbedingt_ mit einer Subdomain gelistet werden, weil die ja später zur Hauptdomain wird (google=keine doppelten Seiten).
1. Dann sperre Bots aus. robots.txt und/oder (z.B.) .htaccess ist das allererste, was auf eine Domain sollte, sofern der Inhalt nicht frei verfügbar ist.
2. "Doppelte Seiten" = "urban legend". Doppelten Content (als Negativmerkmal) auf einer SLD gibt es nicht. Bei doppeltem Content auf unterschiedlichen Domains, wird einer höher bewertet, als der andere. Der höher bewertete ist üblicherweise der ältere/zuerst gefundene Content.
Ich wollte mich ja auch garnicht "beschweren", sondern eher den Horizont für mein technisches Verständnis erweitern.
Man kann ggf. nicht definitiv sagen, wie Google an eine konkrete Domain gekommen ist. Möglichkeiten gibt es dazu einige (Suche in Google selbst, GMail, Usenet, Chrome, Google-Toolbar, ...)
Bei Google ist ja auch viel Rätselraten (Javascript als Stichwort).
?
Zumal sie ja eigentlich im Wesentlichen und zu Recht ja an Seiten interessiert sind, die verlinkt sind (Link => Pagerank [nicht nur aber auch und ja in den meisten Fällen zu Recht])
Der PR ist nur eines von vielen Kriterien - und noch nicht mal das wichtigste.
Aber von einem URL zu erfahren, und nicht zu spidern, wäre von einer SE prinzipiell dumm (schon aus Wettberwerbsgründen). Wenn das nicht erwünscht sein sollte: s.o. Punkt 1) - dafür ist es gedacht.
Gruß, Cybaer
Man muß viel gelernt haben, um über das, was man nicht weiß, fragen zu können.
(Jean-Jacques Rousseau, Philosoph u. Schriftsteller)