Carsten: 2x robots.txt fuer 2 Domains bei identischen Dateien moeglich?

Beitrag lesen

Hallo Orlando!

Nun wollte ich Google 'den Metaxa' versagen, was am einfachsten über robots.txt funktioniert - klar. Doch auch dieses Helferlein ist nur einmal vorhanden... Ich würde Suchmaschinen nun beim Spidern von web98.metaxa.usw. aber gerne andere Robot-Vorschriften bieten, als beim Spidern von skop.net

1. robots.txt per PHP erzeugen lassen. Dazu
  AddType application/x-httpd-php .txt
(Wenn du irgendwelche .txt Dateien als Text haben willst musst du in den ensprechenden Verzeichnissen den Typ wieder zurückkonfigurieren.)

2. robots.txt ist eine PHP-Datei, die entscheidet welche robots wirklich geliefert werden soll:
<?
  header("Content-type: text/plain");
  if(getenv($HTTP_HOST)=="web98.metaxa.loswebos.de")
    readfile("robots_1.txt") or die("Datei nicht gefunden");
  else
    readfile("robots_2.txt") or die("Datei nicht gefunden");
?>

Gruss,
 Carsten