oingman: metatags und robots

hallo

ich hab durch meine logfiles festgestellt, das, wie eingestellt alle 14 tage unmengen an robots vorbeikommen. zum einen stört das, weil ich für eine woche nicht sehen kann wie viele leute da waren, sondern utobie zahlen bekommen. andererseid frage ich mich:

was ist ein "normaler wert", in welchem interwall sollen sie aufkreuzen?

wenn ich meine index.html mit 30 tage versehe, dann werden doch alle dateien die mit link zu erreichen sind durchsucht, auch wenn da nichts mehr steht von wegen 30 tage oder so, oder?

wenn ich über die index und den links meine seite durchsuchen lass, kann ich auf einer gelinkten seite sagen, stop, bis hier her?

ich wäre dankbar, wenn ich heir ein paar tips, egal welcher art erhalten würde, ich hab da echt keinen plan von, auser was bei dr.web steht.

  1. Nabend!

    was ist ein "normaler wert", in welchem interwall sollen sie aufkreuzen?

    Das hängt ganz davon ab, wie oft Du Deine Seite aktualisierst. Wenn sich die Seiten nur alle 2 Monate ändern, dann brauchen die Robots ja nicht alle 30 Tage vorbeischauen. Und wenn sich nur Kleinigkeiten ändern, ist das sicher auch nicht notwendig.

    wenn ich über die index und den links meine seite durchsuchen lass, kann ich auf einer gelinkten seite sagen, stop, bis hier her?

    Du kannst dem Robot sagen, dass er den Links in einer Seite nicht mehr folgen soll:

    <meta name="robots" content="index,nofollow">

    Dieser Metatag sagt aus, das die Seite aufgenommen, aber den Links nicht mehr gefolgt werden soll. Mehr dazu unter http://selfhtml.teamone.de/html/kopfdaten/meta.htm#robots

    Viele Grüße,
    Ron Wernecke

  2. Hi,

    ich hab durch meine logfiles festgestellt, das,
    wie eingestellt alle 14 tage unmengen an robots
    vorbeikommen. zum einen stört das, weil ich für
    eine woche nicht sehen kann wie viele leute da
    waren, sondern utobie zahlen bekommen.

    Gute Logfile-Analyse-Tools lassen es zu, bestimmte
    Daten zu filtern. Du hast also theoretisch die
    Möglichkeit, die 'echte' Anzahl deiner Besucher
    herauszufinden.

    andererseid frage ich mich: was ist ein "normaler
    wert", in welchem interwall sollen sie aufkreuzen?

    Wie oft aktualisierst du deine Seiten? Nach welchem
    Zeitraum wirst du im allgemeinen von deinen
    angestrebten Suchmaschinen-Positionen 'verdrängt'?
    Unabhängig davon halte ich alle vier Wochen für
    sinnvoll. Zumindest hat es bei meinen Projekten gut
    funktioniert. Immer gut gelistet, aber noch nie raus
    geflogen :)

    wenn ich meine index.html mit 30 tage versehe, dann
    werden doch alle dateien die mit link zu erreichen
    sind durchsucht, auch wenn da nichts mehr steht von
    wegen 30 tage oder so, oder?

    Das dürfte von Suchdienst zu Suchdienst unterschiedlich
    sein. Kommt darauf an, wie viele Sites der Suchrobot in
    seiner Todo-List hat, wie er konfiguriert ist und und und.

    wenn ich über die index und den links meine seite
    durchsuchen lass, kann ich auf einer gelinkten seite
    sagen, stop, bis hier her?

    Du kannst auf der index-Seite schon sagen, dass die
    Suchrobots die Seite zwar indizieren, den
    Links aber nicht folgen sollen.

    http://selfhtml.teamone.de/html/kopfdaten/meta.htm#robots

    ich wäre dankbar, wenn ich heir ein paar tips, egal
    welcher art erhalten würde, ich hab da echt keinen
    plan von, auser was bei dr.web steht.

    Dr. Web ist ansich schon mal keine schlechte Quelle, aber
    wenn du schon das Forum hier gefunden hast, warum führst
    du dir nicht auch gleich SelfHTML zu Gemüte? Ist quasi
    gleich um die Ecke hier ;-) Und vor allem, es steht alles
    drin, was du wissen musst - behaupte ich mal.

    Gruß NN

    --
    Online-Terminplaner für Firmen-Websites
    Notdienstkalender für Städte-Homepages

    http://www.stadtaus.com/ //php and more