Hi, liebe Leute
Zunächst: das Thema ist etwas kryptisch formuliert, sorry.
Das Problem: Meine Site ist unter zwei Domains zu erreichen. Einmal unter meiner eigenen Domain http://www.skop.net/ und ebenso unter einer Sub-Domain meines Hosters http://web98.metaxa.loswebos.de/ Zweiteres will ich vermeiden.
Der Inhalt ist absolut identisch, das heisst, jede einzelne Seite ist unter zwei Domains zu erreichen. Irgendwie wurde diese Hoster-Domain 'aufgegoogelt' und indiziert. Beispiel: http://www.google.com/search?q=skop+loswebos
Nun wollte ich Google 'den Metaxa' versagen, was am einfachsten über robots.txt funktioniert - klar. Doch auch dieses Helferlein ist nur einmal vorhanden... Ich würde Suchmaschinen nun beim Spidern von web98.metaxa.usw. aber gerne andere Robot-Vorschriften bieten, als beim Spidern von skop.net
Hat jemand eine Idee, wie ich das anstellen könnte? Habe leider keine Möglichkeit, den Apachen meines Hosters entsprechend umzuerziehen :-( SSI, Perl, PHP usw. sind aber verfügbar.
Danke & LG Orlando
PS: Ich habe auf allen Seiten etwas eingebunden, was mir unsäglich faulem Stück gleichzeitig bequemes lokales Testen ermöglicht:
<base target="_top" href="http://<!--#echo var="SERVER_NAME"-->/">
Wenn mir jemand verraten könnte, wie ich meinen lokalen Apachen überrede, auch eine absolute Angabe der Domain irgendwie auf meine Platte umzubiegen, wäre das auch eine praktikable Lösung ;-)
PPS: Irgendwie glaube ich dem Forum-Script nicht, dass das Thema "2 x robots.txt für zwei Domains bei identischen Dateien möglich?" länger als 64 Zeichen sein soll. Werden bei der Auswertung Sonderzeichen maskiert und dann die Länge gemessen?