Hi!
Also ich bekomme nach dem Klick auf http://gizmodo.com/#!5784194/the-10-worst-nuclear-nightmares die gewünschte Seite "The Top 10 Worst Nuclear Nightmares".
Ich bekomme auch mit deaktiviertem Werbe- und Socialquark-Blocker nur die Übersichtsseite und zwei Fehlermeldungen in der Fehlerkonsole, und das in vier verschiedenen Browsern.
Überflüssig finde ich die Sache mit dem "_escaped_fragment_". Der Google-Bot müsste einfach nur mit aktiviertem JavaScript den Links (mit Hashs) folgen.
Mal angenommen, jemand schriebe eine Javascript-Implementation für blinde Server, was genau sollte ein Server dann auswerten? Mal probehalber alle onclick-Events auslösen, und das jedes Mal von vorn, wenn sich das DOM ändert? Vielleicht machen ja einige Eventhandler einen Ajax- oder herkömmlichen Request und nicht nur irgendwelchen optischen Schnickschnack für den sehenden Besucher. Damit kann man den Crawler prima in Timeouts laufen lassen, wenn man solche zyklischen Dinge wie immer wieder von vorn durchlaufende Ticker auf der Seite hat.
Im Prinzip wäre jeder Event interessant, denn beispielsweise auch Scroll-Events laden heutzutage Seitenteile nach, wenn man weit genug runtergescrollt hat.
Mal weiter angenommen, die Zeit kommt irgendwann, dass Crawler sowas können, wie wird dann das Suchergebnis dem Anwender präsentiert?
URL: sowieso - und dann lieber Besucher bitte drei Umdrehungen am Mausrad und auf das Element mit der ID x klicken.
Genau die Bedienhandlung, die der Crawler ausführen musste, um zum Inhalt zu kommen, muss ja der Benutzer auch ausführen. Das lässt sich nur insofern abkürzen, wenn es eindeutige URLs zu diesen Bedienhandlungen gibt, die mit einem Klick zum Ergebnis kommen. Die ganze Suchmaschinenfähigkeit fällt und steht schon aus Handhabbarkeitsgründen mit diesen eindeutigen URLs.
Lo!