Daniela: robots.txt blockier Google-Suche

Hallo! Ich hätte mal eine Frage.

Bis vor kurzem hat auf meinem Blog alles super funktiniert, vor kurzem gingen dann die Besucherzahlen in den Keller. Nun ist mir auch klar warum: robots.txt blockiert die Google Suche. Mein Blog wird also überhaupt nicht gelistet.

Als ich heute mal reingeschaut hat, stand da: user-agent: * disallow: /search

Hab nun mittels benutzerdefinierten robots.txt auf Blogger das "/search" weggelöscht. Crawlen funktioniert nach wie vor nicht.

Hat irgendjemand eine Ahnung, wie der Blog wieder gelistet wird?

  1. robots.txt blockiert die Google-Suche. Mein Blog wird also überhaupt nicht gelistet.

    Als ich heute mal reingeschaut hat, stand da: user-agent: * disallow: /search

    Dieser Eintrag blockiert lediglich Pfade, die mit /search beginnen. Steckt dort eine Suchfunktion, ist es nicht unbedingt sinnvoll, deren Seiten in einer Suchmaschine aufzuführen. Vor allem aber: Alle anderen Seiten werden dadurch nicht blockiert. Im Moment deutet auch nichts anderes auf einen Ausschluss hin.

    Hat irgendjemand eine Ahnung, wie der Blog wieder gelistet wird?

    Das kommt von alleine. Google muss nur erstmal wieder bei dir vorbeischauen und das kann etwas dauern.