Hi, Sven
[...]
Du müßtest die robots.txt dynamisch erzeugen, je nachdem, welche Domain angesprochen wird. Sowas sollte in Perl oder PHP kein Thema sein. ;)
Das wäre selbst für mich kein Problem :-)
Das Problem ist dabei in der Tat, den Apache davon zu überzeugen, daß "robots.txt" eine Skriptdatei ist, und kein Text...
Ja, _das_ ist mein Problem.
Aber Google weiß alles: Die Suche nach '"dynamic robots.txt"' ergab genau EINEN Treffer, und zwar diesen hier:
http://www.leekillough.com/robots.html
Gut zu wissen, wonach man suchen muss ;-)
Zusammenfassung: Um auf diverse User-Agents von Suchmaschinen reagieren zu können, nimmt man mod_rewrite, um verschiedene Versionen der robots.txt auszuliefern. Und das geht natürlich auch, um auf verschiedene Versionen von Domainnamen zu reagieren. :)
Um mod_rewrite verwenden zu können, muss ich aber Zugriff auf httpd.conf haben, oder?
mod_rewrite funktioniert auch mit .htaccess, sofern freigeschaltet. Andere Möglichkeiten, den Apache-Zugriff von robots.txt auf ein Skript umzulenken, gibt es AFAIK nicht. Also entweder gehts, oder es geht nicht.
Das Problem ist, per FTP habe ich keinen Zugriff auf httpd.conf und .htaccess (d.h. ich sehe sie nicht). Es ist verlockend, diese einfach mal zu erstellen und hochzuladen. Andererseits möchte ich den Apachen meines Hosters nicht unbedingt verwirren, zumal die Server-Konfiguration bestimmt nicht meine Stärke ist ;-) Ich habe einige Verzeichnisse mit Passwort geschützt, das funktioniert auch. Doch - wie gesagt - die .htaccess bekomme ich nirgends zu Gesicht, das geht alles nur über die Admin-Oberfläche.
Könntest du mir einen Tip geben, wie ich das gefahrlos anpacken kann? An solchen Sachen pfusche ich nur ungern herum.
Wenn es dazu keine 'sichere' Vorgangsweise gibt, probiere ich es lieber mit if-Abfragen bei meinem base-href-SSI-Tag und/oder JavaScript-Umleiteitung. Ich bezweifle aber, ob sich Google davon beeindrucken lässt...
Danke jedenfalls für den einleuchtenden Ansatz!
LG Orlando