Hallo Orlando!
Nun wollte ich Google 'den Metaxa' versagen, was am einfachsten über robots.txt funktioniert - klar. Doch auch dieses Helferlein ist nur einmal vorhanden... Ich würde Suchmaschinen nun beim Spidern von web98.metaxa.usw. aber gerne andere Robot-Vorschriften bieten, als beim Spidern von skop.net
1. robots.txt per PHP erzeugen lassen. Dazu
AddType application/x-httpd-php .txt
(Wenn du irgendwelche .txt Dateien als Text haben willst musst du in den ensprechenden Verzeichnissen den Typ wieder zurückkonfigurieren.)
2. robots.txt ist eine PHP-Datei, die entscheidet welche robots wirklich geliefert werden soll:
<?
header("Content-type: text/plain");
if(getenv($HTTP_HOST)=="web98.metaxa.loswebos.de")
readfile("robots_1.txt") or die("Datei nicht gefunden");
else
readfile("robots_2.txt") or die("Datei nicht gefunden");
?>
Gruss,
Carsten