hi,
Punkt 1: Das Prinzip ist derart simpel,
Ja
Punkt 2: Das System ist CAPTCHA-geschützt,
Müll
Punkt 3: Es ist technisch mittelmäßig gelöst.
Siehe Punkt 1
Punkt 4: Es wird immer wieder betont, dass man gegen gewolltes rehosten nichts machen kann. Logisch, was ich anzeigen kann kann ich auch speichern. Also geht es nur um das versehentliche bzw. automatische kopieren von Ressourcen.
Punkt 5: Oft genug ist es gar nicht unerwünscht, dass Roboter die Daten erfassen, sie sollen sie ggf. dennoch nach einem bestimmten Zeitraum löschen.
Zu 4 und 5: Das Internet ist eine Umgebung, die nicht vertrauenswürdig ist. Am Wenigsten ist dies unseren Politikern klar und möglicherweise auch denen nicht, die im Internet Geschäfte abwickeln. Daran würde auch eine Organisation nichts ändern, die als vertrauenswürdig eingestuft werden könnte. Es sei denn eine solche Organisation ist das Internet selbst.
Ansonsten gilt eben das was heute schon gilt: Willst du nicht dass Google es weiß, dann wirf es nicht ins Netz!
Genau!
Horst Klugschisser
Ein Theoretiker weiß alles. Ein Praktiker weiß wann die Theorie nicht funktioniert.