Orlando: 2x robots.txt fuer 2 Domains bei identischen Dateien moeglich?

Beitrag lesen

Hi, liebe Leute

Zunächst: das Thema ist etwas kryptisch formuliert, sorry.

Das Problem: Meine Site ist unter zwei Domains zu erreichen. Einmal unter meiner eigenen Domain http://www.skop.net/ und ebenso unter einer Sub-Domain meines Hosters http://web98.metaxa.loswebos.de/ Zweiteres will ich vermeiden.

Der Inhalt ist absolut identisch, das heisst, jede einzelne Seite ist unter zwei Domains zu erreichen. Irgendwie wurde diese Hoster-Domain 'aufgegoogelt' und indiziert. Beispiel: http://www.google.com/search?q=skop+loswebos

Nun wollte ich Google 'den Metaxa' versagen, was am einfachsten über robots.txt funktioniert - klar. Doch auch dieses Helferlein ist nur einmal vorhanden... Ich würde Suchmaschinen nun beim Spidern von web98.metaxa.usw. aber gerne andere Robot-Vorschriften bieten, als beim Spidern von skop.net

Hat jemand eine Idee, wie ich das anstellen könnte? Habe leider keine Möglichkeit, den Apachen meines Hosters entsprechend umzuerziehen :-( SSI, Perl, PHP usw. sind aber verfügbar.

Danke & LG Orlando

PS: Ich habe auf allen Seiten etwas eingebunden, was mir unsäglich faulem Stück gleichzeitig bequemes lokales Testen ermöglicht:
<base target="_top" href="http://<!--#echo var="SERVER_NAME"-->/">

Wenn mir jemand verraten könnte, wie ich meinen lokalen Apachen überrede, auch eine absolute Angabe der Domain irgendwie auf meine Platte umzubiegen, wäre das auch eine praktikable Lösung ;-)

PPS: Irgendwie glaube ich dem Forum-Script nicht, dass das Thema "2 x robots.txt für zwei Domains bei identischen Dateien möglich?" länger als 64 Zeichen sein soll. Werden bei der Auswertung Sonderzeichen maskiert und dann die Länge gemessen?