Hi, Frank
Alle Seiten sind shtml-Seiten. Ist das schlecht???
Nicht das ich wuesste, aber so sehr Search engine Spezialist bin
ich nun auch. Kann mir aber nicht vorstellen dass ein robot damit
Probleme hat.
Mit s/html sicher nicht, das weiß ich aus Erfahrung.
Hat er auch nicht, theoretisch. Aber praktisch werden solche Seiten
-- vielleicht nicht unbedingt .shtml-Seiten, aber garantiert PHP-
Seiten o.ä. -- häufig von der Indizierung ausgeschlossen, da es sich
ja um dynamisch generierte Seiten handelt, die bei jedem Besuch ihren
Inhalt ändern können. Solche Seiten kann man natürlich nicht richtig
indizieren...
Normale (S)HTML-Seiten können sich doch auch jederzeit ändern. Ob ich jetzt dynamische Inhalte per PHP oder Perl oder sonstwas einbinde, sollte einem Spider doch egal sein, oder? Außerdem muß ich meine PHPs ja nichtmal 'deklarieren', wenn ich sie als default-Seite verwende. Beispielsweise /?ichwill=thema
Gibt es zu diesem PHP-Verbot auch eine Dokumentation? Zumal ich mit einem CMS liebäugle -> ;-)
LG Orlando