Punkt 4: Es wird immer wieder betont, dass man gegen gewolltes rehosten nichts machen kann. Logisch, was ich anzeigen kann kann ich auch speichern. Also geht es nur um das versehentliche bzw. automatische kopieren von Ressourcen.
Punkt 5: Oft genug ist es gar nicht unerwünscht, dass Roboter die Daten erfassen, sie sollen sie ggf. dennoch nach einem bestimmten Zeitraum löschen.
Zu 4 und 5: Das Internet ist eine Umgebung, die nicht vertrauenswürdig ist. Am Wenigsten ist dies unseren Politikern klar und möglicherweise auch denen nicht, die im Internet Geschäfte abwickeln. Daran würde auch eine Organisation nichts ändern, die als vertrauenswürdig eingestuft werden könnte. Es sei denn eine solche Organisation ist das Internet selbst.
Das ist natürlich wahr, aber die gleichen Systeme, die sich an die robots.txt halten würden sich wohl auch an solche Verfallsdaten halten. Eben die "großen Player".
Die kleinen, die es nicht besser wissen, schlecht programmieren etc. die kann man auf sowas hinweisen bzw. rechtliche Schritte einleiten.
Die bösen, die vorsätzlich Content ziehen und spiegeln, bei dem das nicht geschehen soll kriegt man mit keinem System (außer Benutzer-Verwaltung) ausgesperrt, daher ja auch der Schlussatz: Wenn es keiner sehen soll zeig es halt nicht her.
sh:( fo:| ch:? rl:( br:& n4:& ie:{ mo:} va:) de:µ_de:] zu:) fl:( ss:| ls:[ js:(