Der Name ist bereits vergeben: SEO + Sitemap

Beitrag lesen

Das ist quasi ohnehin die Voreinstellung. Gedacht ist allow für das Erlauben weniger Ausnahmen, etwa

User-agent: *
Disallow: /
Allow: /foo/

Das funktioniert so nur bei Google. Die robots.txt wird grundsätzlich von oben nach unten abgearbeitet und der erste passende Eintrag zählt. In deiner robots.txt wird "Allow: /foo/" nie erreicht werden, weil das davor stehende "Disallow: /" schon sämtliche Pfade erschlägt.
Korrekt wäre:

User-agent: *
Allow: /foo/
Disallow: /

Google findet das aber blöd und weil Google sich so für das Internet hält wie Microsoft für das Betriebssystem, hat Google das mal eben bei sich umdefiniert.