metatags und robots
oingman
- html
0 Ron Wernecke0 NameNick
hallo
ich hab durch meine logfiles festgestellt, das, wie eingestellt alle 14 tage unmengen an robots vorbeikommen. zum einen stört das, weil ich für eine woche nicht sehen kann wie viele leute da waren, sondern utobie zahlen bekommen. andererseid frage ich mich:
was ist ein "normaler wert", in welchem interwall sollen sie aufkreuzen?
wenn ich meine index.html mit 30 tage versehe, dann werden doch alle dateien die mit link zu erreichen sind durchsucht, auch wenn da nichts mehr steht von wegen 30 tage oder so, oder?
wenn ich über die index und den links meine seite durchsuchen lass, kann ich auf einer gelinkten seite sagen, stop, bis hier her?
ich wäre dankbar, wenn ich heir ein paar tips, egal welcher art erhalten würde, ich hab da echt keinen plan von, auser was bei dr.web steht.
Nabend!
was ist ein "normaler wert", in welchem interwall sollen sie aufkreuzen?
Das hängt ganz davon ab, wie oft Du Deine Seite aktualisierst. Wenn sich die Seiten nur alle 2 Monate ändern, dann brauchen die Robots ja nicht alle 30 Tage vorbeischauen. Und wenn sich nur Kleinigkeiten ändern, ist das sicher auch nicht notwendig.
wenn ich über die index und den links meine seite durchsuchen lass, kann ich auf einer gelinkten seite sagen, stop, bis hier her?
Du kannst dem Robot sagen, dass er den Links in einer Seite nicht mehr folgen soll:
<meta name="robots" content="index,nofollow">
Dieser Metatag sagt aus, das die Seite aufgenommen, aber den Links nicht mehr gefolgt werden soll. Mehr dazu unter http://selfhtml.teamone.de/html/kopfdaten/meta.htm#robots
Viele Grüße,
Ron Wernecke
Hi,
ich hab durch meine logfiles festgestellt, das,
wie eingestellt alle 14 tage unmengen an robots
vorbeikommen. zum einen stört das, weil ich für
eine woche nicht sehen kann wie viele leute da
waren, sondern utobie zahlen bekommen.
Gute Logfile-Analyse-Tools lassen es zu, bestimmte
Daten zu filtern. Du hast also theoretisch die
Möglichkeit, die 'echte' Anzahl deiner Besucher
herauszufinden.
andererseid frage ich mich: was ist ein "normaler
wert", in welchem interwall sollen sie aufkreuzen?
Wie oft aktualisierst du deine Seiten? Nach welchem
Zeitraum wirst du im allgemeinen von deinen
angestrebten Suchmaschinen-Positionen 'verdrängt'?
Unabhängig davon halte ich alle vier Wochen für
sinnvoll. Zumindest hat es bei meinen Projekten gut
funktioniert. Immer gut gelistet, aber noch nie raus
geflogen :)
wenn ich meine index.html mit 30 tage versehe, dann
werden doch alle dateien die mit link zu erreichen
sind durchsucht, auch wenn da nichts mehr steht von
wegen 30 tage oder so, oder?
Das dürfte von Suchdienst zu Suchdienst unterschiedlich
sein. Kommt darauf an, wie viele Sites der Suchrobot in
seiner Todo-List hat, wie er konfiguriert ist und und und.
wenn ich über die index und den links meine seite
durchsuchen lass, kann ich auf einer gelinkten seite
sagen, stop, bis hier her?
Du kannst auf der index-Seite schon sagen, dass die
Suchrobots die Seite zwar indizieren, den
Links aber nicht folgen sollen.
http://selfhtml.teamone.de/html/kopfdaten/meta.htm#robots
ich wäre dankbar, wenn ich heir ein paar tips, egal
welcher art erhalten würde, ich hab da echt keinen
plan von, auser was bei dr.web steht.
Dr. Web ist ansich schon mal keine schlechte Quelle, aber
wenn du schon das Forum hier gefunden hast, warum führst
du dir nicht auch gleich SelfHTML zu Gemüte? Ist quasi
gleich um die Ecke hier ;-) Und vor allem, es steht alles
drin, was du wissen musst - behaupte ich mal.
Gruß NN
--
Online-Terminplaner für Firmen-Websites
Notdienstkalender für Städte-Homepages
http://www.stadtaus.com/ //php and more