robots.txt blockiert die Google-Suche. Mein Blog wird also überhaupt nicht gelistet.
Als ich heute mal reingeschaut hat, stand da: user-agent: * disallow: /search
Dieser Eintrag blockiert lediglich Pfade, die mit /search beginnen. Steckt dort eine Suchfunktion, ist es nicht unbedingt sinnvoll, deren Seiten in einer Suchmaschine aufzuführen. Vor allem aber: Alle anderen Seiten werden dadurch nicht blockiert. Im Moment deutet auch nichts anderes auf einen Ausschluss hin.
Hat irgendjemand eine Ahnung, wie der Blog wieder gelistet wird?
Das kommt von alleine. Google muss nur erstmal wieder bei dir vorbeischauen und das kann etwas dauern.