"double content" mittels javascript vor suchmaschine verstecken
torsten
- javascript
moin!
aus gestalterischen gründen habe ich auf meiner seite unmengen an "double content" (der gesamte seitenhintergrund / scrollbares div voller text-links) ist auf der hauptseite und allen folgeseiten vorhanden.
meine idee -> die (gleichen) links auf den folgeseiten mittels:
<script type="text/javascript">
/* <![CDATA[ */
document.write("<a href='blabla'>blablubblubblabla</a>");
/* ]]> */
</script>
vor suchmaschinen zu verstecken.
meine zwei fragen:
geht das so? macht das sinn?
Moin Moin!
aus gestalterischen gründen habe ich auf meiner seite unmengen an "double content"
Also ein völlig kaputtes Konzept. Mindestens so kaputt wie Deine Shift-Taste.
geht das so?
Ja.
macht das sinn?
Nein.
Wie kommst Du auf die abstruse Idee, dass nur Suchmaschinen Javascript ignorieren?
Alexander
moin Alexander!
Moin Moin!
aus gestalterischen gründen habe ich auf meiner seite unmengen an "double content"
Also ein völlig kaputtes Konzept. Mindestens so kaputt wie Deine Shift-Taste.
das erste ist aus sicht des fachkundigen mglw. richtig, das zweite nicht... inzwischen haben sich alle daran gewöhnt, unsere IT pult das ding extra mit 'nem schraubendreher aus der tastatur bevor ich einen neuen rechner bekomme und den kleinen pin zu treffen der dann noch übrig ist, ist nicht einfach... ich hoffe du kannst damit leben.
geht das so?
Ja.
macht das sinn?
Nein.
Wie kommst Du auf die abstruse Idee, dass nur Suchmaschinen Javascript ignorieren?
?kannst du das bitte erklären?
danke!
das erste ist aus sicht des fachkundigen mglw. richtig, das zweite nicht... inzwischen haben sich alle daran gewöhnt, unsere IT pult das ding extra mit 'nem schraubendreher aus der tastatur bevor ich einen neuen rechner bekomme und den kleinen pin zu treffen der dann noch übrig ist, ist nicht einfach... ich hoffe du kannst damit leben.
Aber Fragezeichen, Rufzeichen oder "IT" kannst du trotzdem problemlos ohne Shift-Taste schreiben?
?kannst du das bitte erklären?
Entweder er meint, dass es auch normale Menschen gibt, die ohne JavaScript daherkommen oder aber er meinte dasselbe wie ich.
Hi,
Also ein völlig kaputtes Konzept. Mindestens so kaputt wie Deine Shift-Taste.
das erste ist aus sicht des fachkundigen mglw. richtig, das zweite nicht...
Doch.
inzwischen haben sich alle daran gewöhnt, unsere IT pult das ding extra mit 'nem schraubendreher aus der tastatur bevor ich einen neuen rechner bekomme und den kleinen pin zu treffen der dann noch übrig ist, ist nicht einfach... ich hoffe du kannst damit leben.
Auf deiner Webseite schreibst du doch auch nicht alles klein.
Also lasse uns, wenn du von uns Hilfe bei deinem Problem bekommen willst, bitte mindestens die gleiche Höflichkeit angedeihen, wie den Besuchern deiner Seite.
MfG ChrisB
moin!
Hi,
Also ein völlig kaputtes Konzept. Mindestens so kaputt wie Deine Shift-Taste.
das erste ist aus sicht des fachkundigen mglw. richtig, das zweite nicht...
Doch.
inzwischen haben sich alle daran gewöhnt, unsere IT pult das ding extra mit 'nem schraubendreher aus der tastatur bevor ich einen neuen rechner bekomme und den kleinen pin zu treffen der dann noch übrig ist, ist nicht einfach... ich hoffe du kannst damit leben.
Auf deiner Webseite schreibst du doch auch nicht alles klein.
Also lasse uns, wenn du von uns Hilfe bei deinem Problem bekommen willst, bitte mindestens die gleiche Höflichkeit angedeihen, wie den Besuchern deiner Seite.
du hast recht, ich hab schon zu oft speichel geleckt, zu guter letzt vor mir selbst! um so mehr ich mich dort verbiege, wo es eigentlich um niemanden geht und wirklich nicht nötig ist. ich werde die seite in den nächsten tagen auf "klein" umstellen. was ich schrob ist nur zum teil jokus. tatsächlich komuniziere ich auch mit kunden und liefereanten in der für alle besten und in diesem falle mir gewohnten art. das hat nichts mit misbilligung oder unhöflichkeit zu tun und es tut mir wirklich leid dich zu vergrimmen. abgesehen davon wär's doch impertinent einfach alles, so unmaßgeblich das auch sein mag pauschal zu verurteilen
...oder?
aus gestalterischen gründen habe ich auf meiner seite unmengen an "double content" (der gesamte seitenhintergrund / scrollbares div voller text-links) ist auf der hauptseite und allen folgeseiten vorhanden.
Wenn du damit "Duplicate Content" meinst, das ist etwas völlig anderes.
geht das so? macht das sinn?
document.write ist antik.
Und ich bin mir sicher, dass es mittlerweile genug Suchmaschinen gibt, die JavaScript ausführen können - wenn Google eine JavaScript-Engine programmieren kann (V8), können die auch einen Crawler schreiben, der eine JavaScript-Engine beinhaltet.
moin!
aus gestalterischen gründen habe ich auf meiner seite unmengen an "double content" (der gesamte seitenhintergrund / scrollbares div voller text-links) ist auf der hauptseite und allen folgeseiten vorhanden.
Wenn du damit "Duplicate Content" meinst, das ist etwas völlig anderes.
wenn ich nicht falsch liege ist "duplicate content" doppelter inhalt auf zwei unterschiedlichen seiten, das "double" aber auf der gleichen... kann mich auch irren...
geht das so? macht das sinn?
document.write ist antik.
?was meinst du damit?
Und ich bin mir sicher, dass es mittlerweile genug Suchmaschinen gibt, die JavaScript ausführen können - wenn Google eine JavaScript-Engine programmieren kann (V8), können die auch einen Crawler schreiben, der eine JavaScript-Engine beinhaltet.
da ist aber viel unterstellung im satz, wenn google das alles kann, dann könnte google möglicher weise auch werten und erkennen (positiv oder negativ) wenn sich jemand die mühe macht das zu verstecken...
da stehen doch die chancen 50%-50% was garnicht so übel ist ;-)
?
wenn ich nicht falsch liege ist "duplicate content" doppelter inhalt auf zwei unterschiedlichen seiten, das "double" aber auf der gleichen... kann mich auch irren...
Ich denke du irrst dich, ja :)
da ist aber viel unterstellung im satz,
Nein, eigentlich nicht - der Schluss liegt ziemlich nahe. Suchmaschinen wie Google können mittlerweile sogar ziemlich vernünftig Flash lesen - und da glaubst du, JavaScript wäre ein Hindernis? :)
da stehen doch die chancen 50%-50% was garnicht so übel ist ;-)
Optimist :) warum brauchst du überhaupt deine geklonten Inhalte? Für "Schatten" oder ähnliches?
moin!
wenn ich nicht falsch liege ist "duplicate content" doppelter inhalt auf zwei unterschiedlichen seiten, das "double" aber auf der gleichen... kann mich auch irren...
Ich denke du irrst dich, ja :)
und ich denke, du hast recht ;-)
das ist mein weg zu lernen: probieren, irren, probieren, irren... da kann man irre werden!
da ist aber viel unterstellung im satz,
Nein, eigentlich nicht - der Schluss liegt ziemlich nahe. Suchmaschinen wie Google können mittlerweile sogar ziemlich vernünftig Flash lesen - und da glaubst du, JavaScript wäre ein Hindernis? :)
grundsätzlich glaube ich erst mal garnix, dann les' ich was und versuche das zu verifizieren, das suchmaschinen mit javascript nicht umgehen können steht imho sogar irgendwo in self, außerdem wurde ich schon so oft mit der nase auf das hier gestoßen, dass ich's fast auswendig kann :)
da stehen doch die chancen 50%-50% was garnicht so übel ist ;-)
Optimist :) warum brauchst du überhaupt deine geklonten Inhalte? Für "Schatten" oder ähnliches?
jein! wenn du mal auf "mfg" oder "torsten" klickst landest du auf meiner seite. da ich zur darstellung der bilder javascript nutze (shadowbox) hatte ich zuerst nur ein thumbnail und alle anderen bilder in einem hidden div versteckt, was ziemlich doof ist wenn javascript aus ist. da i den effekt cool fand wurden aus den "hidden links" der gesante hintergrund, also kaum lesbare schriftsätze die mit den einzelbildern verlinkt sind. das hab ich aber auf jeder seite der seite, also quasi hier und hier und sogar hier
das ist drei mal jede menge text auf jeder seite...
das ist mein weg zu lernen: probieren, irren, probieren, irren... da kann man irre werden!
Erro, dum vivo.
grundsätzlich glaube ich erst mal garnix, dann les' ich was und versuche das zu verifizieren, das suchmaschinen mit javascript nicht umgehen können steht imho sogar irgendwo in self, außerdem wurde ich schon so oft mit der nase auf das hier gestoßen, dass ich's fast auswendig kann :)
Ja - diese Geschichte ist schön, aber imho heute etwas praxisfern.
Suschmaschinen können sich heutzutage in geschützte Bereiche einloggen, Frames und Flash-Seiten durchforsten (wenn auch nicht sinnvoll) und mit Sicherheit JavaScript ausführen (besonders wenn es um simples document.write() geht).
das ist drei mal jede menge text auf jeder seite...
Das tut ihm doch nix - wie sven schon sagte: das ist eine Art Navigation - da kanns schon mal Redundanzen geben :)
moin!
das ist mein weg zu lernen: probieren, irren, probieren, irren... da kann man irre werden!
Erro, dum vivo.
hey, du auch? dann sind wir schon zwei! =)
grundsätzlich glaube ich erst mal garnix, dann les' ich was und versuche das zu verifizieren, das suchmaschinen mit javascript nicht umgehen können steht imho sogar irgendwo in self, außerdem wurde ich schon so oft mit der nase auf das hier gestoßen, dass ich's fast auswendig kann :)
Ja - diese Geschichte ist schön, aber imho heute etwas praxisfern.
niemand vermutet, dass sich in einer kneipe eine robot daneben setzt... oder? (*lol*)
Suschmaschinen können sich heutzutage in geschützte Bereiche einloggen, Frames und Flash-Seiten durchforsten (wenn auch nicht sinnvoll) und mit Sicherheit JavaScript ausführen (besonders wenn es um simples document.write() geht).
ok, aber wo oder wie kann man das verifizieren, viele argumentieren so wie du, vielleicht sogar mehr als die, die das gegenteil behaupten... in self steht davon nichts (oder?)
das ist drei mal jede menge text auf jeder seite...
Das tut ihm doch nix - wie sven schon sagte: das ist eine Art Navigation - da kanns schon mal Redundanzen geben :)
Suschmaschinen können sich heutzutage in geschützte Bereiche einloggen, Frames und Flash-Seiten durchforsten (wenn auch nicht sinnvoll) und mit Sicherheit JavaScript ausführen (besonders wenn es um simples document.write() geht).
ok, aber wo oder wie kann man das verifizieren, viele argumentieren so wie du, vielleicht sogar mehr als die, die das gegenteil behaupten... in self steht davon nichts (oder?)
moin!
Suschmaschinen können sich heutzutage in geschützte Bereiche einloggen, Frames und Flash-Seiten durchforsten (wenn auch nicht sinnvoll) und mit Sicherheit JavaScript ausführen (besonders wenn es um simples document.write() geht).
ok, aber wo oder wie kann man das verifizieren, viele argumentieren so wie du, vielleicht sogar mehr als die, die das gegenteil behaupten... in self steht davon nichts (oder?)
okidoki, verstehe ABER goggel versteckt immer: ", but we don't guarantee that we will." die tendenz ist allerdings eindeutig und das ganze soll ja "vorbauen" und nicht übermorgen schon wieder ad acta gelegt werden...
das ist allerdings auch nur ein user der einem anderen userw as postet (keine negative schwingung enthalten!) sicherlich korrekt aber: "You should then protect the javascript code by either moving the script to an external js, or using html comment tags withing its source code."
ist doch machbar und auf die idee das ganze in ein externes *.js zu packen bin ich garnicht gekommen :) das ist doch eine lösung die das "vielleicht oder auch nicht" einfach ausschließt. niemand weiß wie google das gefundene wirklich einordnet...
gell?
moin!
das ist allerdings auch nur ein user der einem anderen userw as postet (keine negative schwingung enthalten!) sicherlich korrekt aber: "You should then protect the javascript code by either moving the script to an external js, or using html comment tags withing its source code."
ist doch machbar und auf die idee das ganze in ein externes *.js zu packen bin ich garnicht gekommen :) das ist doch eine lösung die das "vielleicht oder auch nicht" einfach ausschließt. niemand weiß wie google das gefundene wirklich einordnet...
im sinne des oben gelesenen hab ich mal folgendes zusammengeschraubt:
in einer separaten *.js datei eine variable definiert:
var links = "<a href='pic01.jpg' title='text'>text</a> <a href='pic01.jpg' title='text'>text</a>";
und in das dokument:
<script type="text/javascript">
document.write("<p>" + links + "</p>");
</script>
meine fragen:
moin!
moin!
das ist allerdings auch nur ein user der einem anderen userw as postet (keine negative schwingung enthalten!) sicherlich korrekt aber: "You should then protect the javascript code by either moving the script to an external js, or using html comment tags withing its source code."
ist doch machbar und auf die idee das ganze in ein externes *.js zu packen bin ich garnicht gekommen :) das ist doch eine lösung die das "vielleicht oder auch nicht" einfach ausschließt. niemand weiß wie google das gefundene wirklich einordnet...
im sinne des oben gelesenen hab ich mal folgendes zusammengeschraubt:
in einer separaten *.js datei eine variable definiert:
var links = "<a href='pic01.jpg' title='text'>text</a> <a href='pic01.jpg' title='text'>text</a>";
und in das dokument:
<script type="text/javascript">
document.write("<p>" + links + "</p>");
</script>
>
> meine fragen:
>
> - hat der author das gemeint als er schrob: "moving the script to an external js" oder muss das document.write() ganz aus der datei raus?
> - welche ist der nicht "antike" aufruf von dem [hier berichtet wird](https://forum.selfhtml.org/?t=206993&m=1406160) mit welchem man text schreiben kann. bei document.write muss alles in einer zeile, ohne umbrüche notiert werden, das nervt ein bisserl, vielleicht kann man das auch irgendwie anders darstellen...
scheinbar geht das auch:
~~~javascript
function writeLinks() {
document.write("<p>" + links + "</p>");
}
in die separate datei und im body folgenden aufruf:
<script type="text/javascript">
writeLinks();
</script>
wär das soweit ok?
Moin!
Google kann sich nicht in geschützte Bereiche einloggen, wie du behauptest. Im Gegenteil: Google stellt die Anforderung an Inhalteanbieter, dass sie keine Unterscheidung machen zwischen ihrem Crawler (der durch den User-Agent identifizierbar ist) und normalen Menschen-Browsern, und allen Content, den der Crawler finden durfte, durch Folgen des Suchergebnislinks ebenfalls vollständig lesen dürfen.
Es wird also im Gegenteil eine große Ausnahmeregelung um die normale Zugangskontrolle herumprogrammiert, damit sich Google eben gerade nicht einloggen muss, und die Nutzer von Suchergebnisseiten ebenfalls nicht.
Flash crawlen funktioniert natürlich ein wenig, wenn in dem herunterladbaren Flashfilm a) aller Content als Text codiert auffindbar ist oder b) nachgeladene Flashfilme im initialen Film eindeutig identifizierbar mit URL aufgeführt sind und deshalb von einem Crawler gefunden werden können.
Das behebt dennoch nicht das Problem, dass ein Flashfilm den indizierten Content eventuell nur durch passendes Klicken einer nicht offensichtlichen UI-Kombination dem User anzeigt, d.h. der gefundene Content wird, anders als bei einer HTML-Seite, nicht sofort sichtbar.
Nach meiner persönlichen Erfahrung hat Google die Anzeige von Flash-Suchergebnissen entweder seitdem wieder aufgegeben, oder deutlich zurückgefahren, oder die Flash-Technologie von heute ist suchmaschinenunfreundlicher geworden, weil der initiale Flashfilm nur ein Programm-Framework zum Nachladen von jeglichem Inhalt ist. Mir sind seinerzeit Flash-Ergebnisse bei Suchen aufgefallen (insbesondere weil der angeblich gefundene Text am Ziel nicht auffindbar war), in letzter Zeit ist mir Flash als Suchergebnis aber nicht bewußt über den Weg gelaufen.
Frames zu crawlen ist simpel - das Frameset einer Inhaltsseite nachzuladen für viele Webmaster aber zu schwierig, als Suchender ist man gerne mal gezwungen, Javascript zu deaktivieren, um den Pauschal-Redirect auf die Startseite zu umgehen.
Die Analyse des gecrawlten Javascript-Codes offenbart natürlich darin eingebetteten HTML-Quellcode, fixe URLs, und sonstige statische Artefakte, die ohne Ausführung von JS-Programmcode offensichtlich sind.
Ich bezweifle aber stark, dass Google tatsächlich was anderes als statische Codeanalyse betreiben wird. Auf der einen Seite: Sowas zu entwickeln wäre vermutlich so effizient wie die Indizierung von Flash, sprich: Was man da eventuell rausbekommt, ist deshalb noch lange nicht für den User sichtbar. Auf der anderen Seite: Solange Javascript als ultimative Waffe für GUI und User Experience nicht unabdingbar ist, um auf einer Inhaltsseite navigieren zu können, solange der Googlebot also auch HTML mit crawlbarem Inhalt findet, solange ist die Notwendigkeit für so einen Javascript-Parser eher gering.
Google kann ganz viel, keine Frage. Und etliches von dem, was Google kann, ist vermutlich noch nicht öffentlich bekannt. Aber ich nehme mal stark an, dass all dies lediglich zur Verbesserung der Suchergebnisse insgesamt herangezogen wird, es aber immer noch darauf ankommt, auf die klassische Weise indiziert zu werden.
- Sven Rautenberg
moin!
@sven
danke!
Google kann ganz viel, keine Frage. Und etliches von dem, was Google kann, ist vermutlich noch nicht öffentlich bekannt. Aber ich nehme mal stark an, dass all dies lediglich zur Verbesserung der Suchergebnisse insgesamt herangezogen wird, es aber immer noch darauf ankommt, auf die klassische Weise indiziert zu werden.
Mein Post war auch keine Aufforderung, künftig wieder Flash-Frame-JavaScript-Sites zu bauen, die weit ab jeglicher vernunft sind :)
moin!
Mein Post war auch keine Aufforderung, künftig wieder Flash-Frame-JavaScript-Sites zu bauen, die weit ab jeglicher vernunft sind :)
issn ds?
Suschmaschinen können sich heutzutage in geschützte Bereiche einloggen, Frames und Flash-Seiten durchforsten (wenn auch nicht sinnvoll) und mit Sicherheit JavaScript ausführen (besonders wenn es um simples document.write() geht).
Keine der großen Suchmaschinen *indiziert* per document.write erzeugte Inhalte.
Ob sie zu irgendwelchen sonstigen Zwecken JavaScript ausführen, ist für diesen Fakt irrelevant.
Und um diese Frage ging es hier im Thread.
Mathias
moin!
danke molily.
Hallo,
das ist drei mal jede menge text auf jeder seite...
Ja. Aus einer allgemeinen Sicht der Suchmaschinenoptimerung ist das sicher nicht optimal. Ob es ein konkretes Problem ist, hängt von deinen Anforderungen ab. Die Suchmaschinen werden deine Site deshalb wahrscheinlich nicht herauswerfen. Die individuellen Inhalte werden sicher auffindbar sein, wenn man gezielt nach ihnen sucht. Allerdings werden deine z.B. Blogeinträge sicher nicht weit oben auftauchen bei einer Suche nach, sagen wir, Anarchosyndikalismus. Ich denke aber nicht, dass du das beabsichtigst. Wenn doch, so wäre es z.B. sinnvoller, die Blogeinträge einzeln zugänglich zu machen und weiter zu optimieren.
Dem offenbaren Zweck deiner Site, ein Fotografie-Portfolio zu bieten und als solches auffindbar zu sein, tut das jedenfalls keinen Abbruch.
Mathias
moin matthias!
Ja. Aus einer allgemeinen Sicht der Suchmaschinenoptimerung ist das sicher nicht optimal.
ich versuch das ganze ja weiter zu "optimalisieren" wobei ich natürlich gern kompromisse eingehe...
Ob es ein konkretes Problem ist, hängt von deinen Anforderungen ab. Die Suchmaschinen werden deine Site deshalb wahrscheinlich nicht herauswerfen. Die individuellen Inhalte werden sicher auffindbar sein, wenn man gezielt nach ihnen sucht.
der unerfüllbare traum jedes amateurhobbywebseitenbastlers ist natürlich der volltreffer beim hauptsuchwort...
Allerdings werden deine z.B. Blogeinträge sicher nicht weit oben auftauchen bei einer Suche nach, sagen wir, Anarchosyndikalismus. Ich denke aber nicht, dass du das beabsichtigst.
sehr gut analysiert, eigentlich ist das ganze sogar peinlich weil das ganze inhaltlich oder informativ äußerst zweifelhaft ist, allerdings ist es auch nicht verwerflich, insofern auch moralisch erlaubt (aber ggf. nicht erwünscht) und aus den beiden gründen mach ich das ganze ;-)
Wenn doch, so wäre es z.B. sinnvoller, die Blogeinträge einzeln zugänglich zu machen und weiter zu optimieren.
nä, danke ;-)
Dem offenbaren Zweck deiner Site, ein Fotografie-Portfolio zu bieten und als solches auffindbar zu sein, tut das jedenfalls keinen Abbruch.
ok, verstanden, danke erst mal...
Moin!
aus gestalterischen gründen habe ich auf meiner seite unmengen an "double content" (der gesamte seitenhintergrund / scrollbares div voller text-links) ist auf der hauptseite und allen folgeseiten vorhanden.
Ja und? Suchmaschinen wissen, dass auf HTML-Seiten derselben Domain Dinge doppelt vorkommen. Man nennt das "Navigation" oder "Designelemente".
Und selbst der mal als böse gebrandmarkte "Duplicate Content" ist nicht so böse - Suchmaschinen wollen nur vermeiden, dass mehrere Domains gleich relevant eingestuft werden und hätten gern Hinweise, welches die primäre Domain ist.
Du machst dir also einen Kopf dort, wo es absolut überflüssig ist.
- Sven Rautenberg
moin sven!
Moin!
aus gestalterischen gründen habe ich auf meiner seite unmengen an "double content" (der gesamte seitenhintergrund / scrollbares div voller text-links) ist auf der hauptseite und allen folgeseiten vorhanden.
Ja und? Suchmaschinen wissen, dass auf HTML-Seiten derselben Domain Dinge doppelt vorkommen. Man nennt das "Navigation" oder "Designelemente".
Und selbst der mal als böse gebrandmarkte "Duplicate Content" ist nicht so böse - Suchmaschinen wollen nur vermeiden, dass mehrere Domains gleich relevant eingestuft werden und hätten gern Hinweise, welches die primäre Domain ist.
Du machst dir also einen Kopf dort, wo es absolut überflüssig ist.
hm, das sind ja (für mich völlig neue) töne, setzt aber voraus, dass es für die suchmaschiene egal ist, wie viel da doppelt vorkommt. wenn sich alles so weiter entwickelt werde ich enorm viel mehr doppelt haben als einmaligen inhalt...
selbstverständlich würde ich am liebsten alles lassen wie es ist, hab aber bedenken...