SEO + Sitemap
DaWonderer
- html
- seitenbewertung
Hallo,
ich habe gerade eine Anfrage vom Kunden bekommen, ob ich fuer eine Webseite die ich vor Jahren erstellt habe eine Sitemap für die Suchmaschinnen erstellen könnte. Damals hatte ich mit META-Angaben in Description und Keywords versucht den Crawler etwas mitzuteilen. Allerdings nicht wirklich gekonnt - die Keywords sind bei so ziemlich jeder Seite die gleichen obwohl aus mehr als 50Unterseiten gibt. Auf Wikipedia habe ich gerade gelesen, dass Keywords im Prinzip gar nicht mehr einbezogen werden (von Google).
Wie kann man die markanten Suchwörter denn jetzt der Suchmaschine mitteilen? Im Protokoll für die Sitemaps habe ich keine XML-Eigenschaft gefunden dafür?!?
danke schon mal für die Hilfe...
Hi,
Auf Wikipedia habe ich gerade gelesen, dass Keywords im Prinzip gar nicht mehr einbezogen werden (von Google).
ja, das ist die heute vorherrschende Meinung, die AFAIK auch von Google selbst bestätigt wird.
Wie kann man die markanten Suchwörter denn jetzt der Suchmaschine mitteilen?
Im Inhalt der Seite(n). Der Inhalt der Seiten wird indiziert und nach vermeintlich relevanten Suchbegriffen abgegrast. Also sorge dafür, dass deine Inhalte (Text) möglichst aussagekräftig sind.
So long,
Martin
Hallo Martin,
Eine kleine Ergänzung noch:
Im Inhalt der Seite(n). Der Inhalt der Seiten wird indiziert und nach vermeintlich relevanten Suchbegriffen abgegrast. Also sorge dafür, dass deine Inhalte (Text) möglichst aussagekräftig sind.
... die du dann Google mit der XML-Sitemap bloß finden helfen kannst – ist doch eigentlich wesentlich entspannter, als aufwändig irgendwelche Keywords eintragen zu müssen, oder?
Dein Job besteht dann darin, ggf. Hinweise zur Optimierung der Inhalte zu geben und die Site etwas anzupassen (Valide, Semantisch, mobilfreundlich und HTTPS mag Google gerne!).
Gruß
Julius
Eine kleine Ergänzung noch:
sorge dafür, dass deine Inhalte (Text) möglichst aussagekräftig sind.
... die du dann Google mit der XML-Sitemap bloß finden helfen kannst
Worauf man gar nicht genug hinweisen kann: Die sitemap.xml ist in aller Regel überflüssig, so lange alle Seiten untereinander verbunden sind. Kommt ein menschlicher Besucher von A über B nach C, dann schafft ein Bot das auch.
Bei 5000 tief verschachtelten Seiten kann man sich das überlegen, aber bei 50 ist eine sitemap.xml vergebene Liebesmüh'.
Beispiel: http://www.handwerkzeugs.de/sitemap.xml
und guck auch mal in die robots.txt wie du den bots das vorhandensein des sitemap.xml mitteilen kannst. Natürlich auch an google direkt über die webmastertools.
Hallo pl,
Beispiel: http://www.handwerkzeugs.de/sitemap.xml
und guck auch mal in die robots.txt
Allow: /
ist sinnfrei. Das ist quasi ohnehin die Voreinstellung. Gedacht ist allow
für das Erlauben weniger Ausnahmen, etwa
User-agent: *
Disallow: /
Allow: /foo/
Zu beachten ist, dass sowohl Allow
als auch Sitemap
nicht zum (ursprünglichen) robots exclusion protocol gehören.
Bis demnächst
Matthias
Das ist quasi ohnehin die Voreinstellung. Gedacht ist
allow
für das Erlauben weniger Ausnahmen, etwaUser-agent: * Disallow: / Allow: /foo/
Das funktioniert so nur bei Google. Die robots.txt wird grundsätzlich von oben nach unten abgearbeitet und der erste passende Eintrag zählt. In deiner robots.txt wird "Allow: /foo/" nie erreicht werden, weil das davor stehende "Disallow: /" schon sämtliche Pfade erschlägt.
Korrekt wäre:
User-agent: *
Allow: /foo/
Disallow: /
Google findet das aber blöd und weil Google sich so für das Internet hält wie Microsoft für das Betriebssystem, hat Google das mal eben bei sich umdefiniert.
Hallo Der Name ist bereits vergeben,
in der Tat.
Bis demnächst
Matthias
Hallo Matthias Apsel,
in der Tat.
Ich ziehe meine Zustimmung zurück.
Bis demnächst
Matthias
Hallo Der Name ist bereits vergeben,
Das ist quasi ohnehin die Voreinstellung. Gedacht ist
allow
für das Erlauben weniger Ausnahmen, etwaUser-agent: * Disallow: / Allow: /foo/
Das funktioniert so nur bei Google. Die robots.txt wird grundsätzlich von oben nach unten abgearbeitet und der erste passende Eintrag zählt. In deiner robots.txt wird "Allow: /foo/" nie erreicht werden, weil das davor stehende "Disallow: /" schon sämtliche Pfade erschlägt.
Korrekt wäre:User-agent: * Allow: /foo/ Disallow: /
Nein. Allow
ist für das Erlauben von Verzeichnissen innerhalb gesperrter Verzeichnisse gedacht. Deshalb ist die erste Reihenfolge korrekt: Sperre die gesamte Domain, lass aber das Verzeichnis foo trotzdem zu.
In
User-agent: *
Disallow: /foo/
Allow: /bar/
hingegen ist das Allow: /bar/
nach wie vor sinnfrei.
Google findet das aber blöd und weil Google sich so für das Internet hält wie Microsoft für das Betriebssystem, hat Google das mal eben bei sich umdefiniert.
Die Datei wird nach wie vor von oben nach unten abgearbeitet.
Bis demnächst
Matthias
Hi pl,
Beispiel: http://www.handwerkzeugs.de/sitemap.xml
In der Sitemap fehlen aber noch einige Informationen, oder?
<url>
<loc>http://example.de/</loc>
<priority>1.0</priority>
<lastmod>2016-03-23T10:44:42+02:00</lastmod>
<changefreq>weekly</changefreq>
</url>
Bis bald