suchmaschinenfreundliches Redirecting
Michael
- webhosting
Ich habe ein Typo3-CMS auf einem Unterordner einer Domain mit sehr hohem Pagerank laufen (www.hoherpagerank.de/hierarchie/home/).
Nun sollen aus suchmaschinentechnischer Sicht zusätzliche Domains mit relevanten Begriffen eingerichtet werden. Da diese Domains bei einem anderen Anbieter gehostet sind, können diese nur per Weiterleitung auf das Verzeichnis www.hoherpagerank.de/hierarchie/home/ konfiguriert werden oder auf meinen Webspace mit einem Skript (das mehr oder weniger auch auf diese Hauptseite verlinken soll).
Was ist die suchmaschinenfreundlichste Lösung?
Vielen Dank für Eure Hilfe!
Ich habe ein Typo3-CMS auf einem Unterordner einer Domain mit sehr hohem Pagerank laufen (www.hoherpagerank.de/hierarchie/home/).
nein, die ressource liefert einen 404
Was ist die suchmaschinenfreundlichste Lösung?
die suchmaschinenfreundlichste lösung ist eine ressource mit genau einer url zugänglich zu machen und diese in einer sitemap (im xml format) bereitzustellen - umleitungen, 10 verschiedene domains mit 25 umleitung in irgenwelche unterverzeichnisse bringen bei suchmaschinen afaik garnichts
es ist lediglich für den endkunden sinnvoll
example.com/komplizierter-pfad/schrauben
example.com/komplizierter-pfad/naegel
zusätzlich könnte man die domain schrauben.example.com registrieren und ihn dann umleiten (permanent)
hi $name,
die suchmaschinenfreundlichste lösung ist eine ressource mit genau einer url zugänglich zu machen und diese in einer sitemap (im xml format) bereitzustellen - umleitungen, 10 verschiedene domains mit 25 umleitung in irgenwelche unterverzeichnisse bringen bei suchmaschinen afaik garnichts
schlimmer, google, yahoo, ask,.... schmeißen einem aus dem index!!
eine möglichkeit wäre alle doppelten verzeichnisse für die bots zu sperren.
gruss
shadow
p.s.
xxx ist nur dafür da, weil SEO einen fehler erzeugt "zu kurzes thema"
schlimmer, google, yahoo, ask,.... schmeißen einem aus dem index!!
geh geh - ich hab kunden mit mehreren hundert domains die alle wild herumleiten (wunsch), die domains finden sich zwar nicht in den suchmaschinen, die seiten selbst sind mit den primärdomains brav lt. sitemap indexiert
eine möglichkeit wäre alle doppelten verzeichnisse für die bots zu sperren.
damit fliegt man sicher aus dem index
xxx ist nur dafür da, weil SEO einen fehler erzeugt "zu kurzes thema"
und was spricht gegen search engine optimization?
Hallo.
eine möglichkeit wäre alle doppelten verzeichnisse für die bots zu sperren.
damit fliegt man sicher aus dem index
Sicher?
und was spricht gegen search engine optimization?
Search Engine Optimization.
MfG, at