Moin!
Also kann man davon ausgehen, dass ein Grossteil der Bots kein Javascript interpretieren kann?
Nach meiner Erfahrung kann der absolute der Grossteil der Bots kein Javascript, sondern ist primitiv und stürzt sich halt auf ungesicherte Formulare. Gibt ja genug davon. Das ist eine Möglichkeit wirtschaftlich zu spammen: So primitiv wie es nur geht. Die andere Methode, nämlich großen Aufwand zu treiben, konzentriert auf Grund des Aufwandes auf wenige Webseiten mit großer Reichweite. Die Ökonomie ist hier der Antriebsfaktor.
Sind Captcha-Abfragen mittlerweile als Unsicher anzusehen? Mir fällt dabei als erstes reCAPTCHA ein oder einfach aus Sicht des Benutzerkomforts nicht Wünschenswert?
Captcha-Abfragen sind, je weniger diese mit OCR-Programmen genackt werden können, auch um so mehr "nervig" und spätestens via Social Engineering zu knacken. Man bietet irgendwo ein attraktives Spiel an, bewirbt dieses auch und lässt die Spieler je Level ein fremden Captchas knacken - angeblich damit dieser nicht Angst haben muss gegen Maschinen zu spielen. Selbst Google macht übrigens ähnliches und lässt sich auf diese Weise beim Scannen/OCR von Büchern helfen. Eine andere Methode ist es hier auf Grund des geringeren Preises(!) angelernte Menschen in Billiglohnländern 16 Stunden am Tag Spam versenden zu lassen.
Die Frage: Wozu der Aufwand? Es ist die gleiche Prämisse wie oben. Nur auf wenige, große Seiten mit großer Reichweite spezialisierte Bots treiben diesen Aufwand, der Rest ist zum Schreien primitiv. Immerhin gibt es für einen Klick auf einen solchen Link auch nur Beträge zwischen geschätzten 1 und 10 Cent für den Betreiber der Spammaschine und die meisten dieser Links werden recht schnell wieder gelöscht. Von diesen 1-10 Cent muss der Aufwand für Personal, Programmierung und Administration (z.B. dauernd neue Server und Domains) abgezogen werden.
MFFG (Mit freundlich- friedfertigem Grinsen)
fastix