Superman :): Verlinken erlaubt, Ja oder Nein?

Hallo alle zusammen,

ich bin Betreiber einer Suchmaschine.
Nun hat mich ein Admin einer Website, die ich durchsuche, angesprochen, dass ich seine Website nicht mehr durchsuchen soll.
Ich stelle seinen Inhalt jedoch nicht auf meiner Website zur Verfügung, sondern verlinke nur zu seiner Seite.

Meine Frage ist, ob ich seine Seite trotz seiner Aufforderung durchsuchen darf und er einen Weg finden muss, um mich zu blocken, oder ob ich seine Website wirklich nicht durchsuchen darf???

mfg
der Superman :))

  1. Hello,

    wie passt http://call.tu-dresden.de/copyright/zitatrecht.htm
    zu Deiner Frage?

    Die Internetseite des Betreibers stellt eine öffentlich zugängliche Quelle dar, oder hast Du Sicherheitsmechanismen mit illegalen Mitteln außer Kraft gesetzt?

    Harzliche Grüße vom Berg
    http://www.annerschbarrich.de

    Tom

    --
    Fortschritt entsteht nur durch die Auseinandersetzung der Kreativen
    Nur selber lernen macht schlau

    1. Wow, langer Text :)
      Da wühl ich mich erstmal durch.

      Zu deiner Frage:
      Nein, natürlich nicht. Ich lese die Seite ganz normal mit PHP ein, nichts illegales o.Ä..

      1. Hi Superman,

        Ich lese die Seite ganz normal mit PHP ein, nichts illegales o.Ä..

        Achtet dein "Suchmaschinen Robot" auf eine eventuell vorhandene robots.txt? Wenn nein, implementiere dieses Feature doch und teile dem Seitenbetreiber mit, dass er dich dadurch "draußen halten" kann.

        MfG, Dennis.

        1. Nein, auf die robots.txt achte ich nicht, muss ich das? Rechtlich gesehen?

          1. Nein, auf die robots.txt achte ich nicht, muss ich das? Rechtlich gesehen?

            Schon, da robots mittlerweile ein weit verbreitetes und einziges Mittel darstellen, robots draußen zu halten.

            1. Aber grundsätzlich ist es keine Vorraussetzung die robots.txt zu beachten, oder?

            2. Nein, auf die robots.txt achte ich nicht, muss ich das? Rechtlich gesehen?

              Schon, da robots mittlerweile ein weit verbreitetes und einziges Mittel darstellen, robots draußen zu halten.

              Nö, wie kommst Du darauf? Es gibt dazu meines Wissens nach nicht ein Urteil. Im Gegenteil sind sowohl Deeplinks als auch Framing zulässig. Zu letzterem hat 2003 das BGH geurteilt.

              Grüsse,
              Stefan

              1. Hast du dazu vllt einen Link?

                1. Hast du dazu vllt einen Link?

                  Klar: http://www.e-recht24.de/artikel/linkhaftung/22.html

                  Viel Spaß beim linken!
                  Wäre ja noch schöner, wenn man das, was das Internet überhaupt erst möglich macht, verbietet :)
                  Stefan

              2. Nö, wie kommst Du darauf? Es gibt dazu meines Wissens nach nicht ein Urteil. Im Gegenteil sind sowohl Deeplinks als auch Framing zulässig. Zu letzterem hat 2003 das BGH geurteilt.

                Grüsse,
                Stefan

                Ok - aber wie gesagt - es wird der Suchmaschine wohl keinen Ruhm bringen, wenn so etwas nicht beachtet wird...

                1. Nö, wie kommst Du darauf? Es gibt dazu meines Wissens nach nicht ein Urteil. Im Gegenteil sind sowohl Deeplinks als auch Framing zulässig. Zu letzterem hat 2003 das BGH geurteilt.

                  Grüsse,
                  Stefan

                  Ok - aber wie gesagt - es wird der Suchmaschine wohl keinen Ruhm bringen, wenn so etwas nicht beachtet wird...

                  Ja, das mag sein. Aber rechtlich gesehen ist es ok.
                  Grüsse, Stefan

                  1. Ich habe folgenden interessanten Artikel gefunden:
                    http://www.heise.de/tp/r4/artikel/15/15246/1.html

                    Anscheinend kann mir nichts passieren, wenn ich die Website trotzdem durchsuche.

                    1. Anscheinend kann mir nichts passieren, wenn ich die Website trotzdem durchsuche.

                      Nö, ich würde der betreffenden Person einfach das hier schicken:

                      http://juris.bundesgerichtshof.de/cgi-bin/rechtsprechung/document.py?Gericht=bgh&Sort=3&Datum=2003&Art=pm&client=3&Blank=1&nr=26553&id=1058517255.04

                      Und ihn darauf hinweisen, dass er - wenn er es denn unbedingt möchte - das technisch unterbinden kann, in dem er den Referer ausliest und Deine Suchmaschine blockt.

                      Stefan

                      1. Hallo Stefan,

                        Anscheinend kann mir nichts passieren, wenn ich die Website trotzdem durchsuche.

                        Was spricht dagegen, robots.txt zu parsen und die Wünsche der Sitebetreiber ernst zu nehmen? Auch für Suchmaschinen gibt es so etwas wie eine Netiquette.

                        […] das technisch unterbinden kann, in dem er den Referer ausliest und Deine Suchmaschine blockt.

                        Suchmaschinen übermitteln keine Referer. Am einfachsten wäre es wohl, die IP zu sperren.

                        Grüße
                         Roland

                        1. Hallo,

                          Was spricht dagegen, robots.txt zu parsen und die Wünsche der Sitebetreiber ernst zu nehmen? Auch für Suchmaschinen gibt es so etwas wie eine Netiquette.

                          im Prinzip nichts, aber es ist halt rechtlich zulässig das zu unterlassen. Das war doch schliesslich die Ausgangsfrage. Im Übrigen gibt es Dienste, die keine Suchmaschinen sind, die aber trotzdem verlinken. Müssen die dann auch einen robots.txt-Mechanismus implementieren?

                          Nicht falsch verstehen, aber wenn hier jemand _Rechts_fragen stellt, ist es wenig hilfreich, wenn dann Leute die Netiquette bedienen und dann auch noch so darstellen, als gäbe es dazu irgendwelche rechtskräftigen Urteile. Es geht hier schliesslich darum mit der "Wahrheit" zu helfen, nicht wahr?

                          Suchmaschinen übermitteln keine Referer. Am einfachsten wäre es wohl, die IP zu sperren.

                          Tun sie das nicht? Naja, aber "er" als Entwickler der Suchmaschine könnte das doch tun! :)

                          Beste Grüsse, Stefan

                          1. Hallo Stefan,

                            Was spricht dagegen, robots.txt zu parsen und die Wünsche der Sitebetreiber ernst zu nehmen? Auch für Suchmaschinen gibt es so etwas wie eine Netiquette.

                            im Prinzip nichts, aber es ist halt rechtlich zulässig das zu unterlassen.

                            Ich sehe eher die „moralische“ Verpflichtung. Die Betreiber werden schon einen Grund haben, Suchmaschinen von bestimmten Bereichen auszuschließen. Die Frage, ob ich gegen den Willen des Betreibers indizieren darf, würde sich mir nicht stellen. Implizieren rote Unterhosen Respektlosigkeit?

                            Das war doch schliesslich die Ausgangsfrage. Im Übrigen gibt es Dienste, die keine Suchmaschinen sind, die aber trotzdem verlinken. Müssen die dann auch einen robots.txt-Mechanismus implementieren?

                            Niemand muss das, das wurde bereits geklärt.

                            Nicht falsch verstehen, aber wenn hier jemand _Rechts_fragen stellt, ist es wenig hilfreich, wenn dann Leute die Netiquette bedienen

                            Ich reiche dir einen Chräcker.

                            Es geht hier schliesslich darum mit der "Wahrheit" zu helfen, nicht wahr?

                            Wahrheit ist Wahrnehmungssache. ;-)

                            Grüße
                             Roland

                            1. Hallo

                              Ich reiche dir einen Chräcker.

                              Ok, so kann man es auch sehen. Aber wenn man das so sieht, dann sollte man seine "Meinung" wenigstens auch deutlich kennzeichnen und von dem, was die "Wahrheit" ist, getrennt darstellen. Oder nicht antworten. Ich bin nicht der Ansicht, dass ich erwachsene Menschen erziehen muss. Und "Wahrheit" lässt sich bei so schlichten Fragen sehr wohl sehr deutlich abgrenzen von dem, was man selbst als gut oder nützlich für das Web befindet.

                              Schönes Wochenende,
                              Stefan

                            2. hi,

                              Die Betreiber werden schon einen Grund haben, Suchmaschinen von bestimmten Bereichen auszuschließen.

                              Interessant, was macht denn das Allow da drin - ist das ein Scherz, den nur Mitglieder(innen) des inner circle verstehen?

                              gruß,
                              wahsaga

                              --
                              /voodoo.css:
                              #GeorgeWBush { position:absolute; bottom:-6ft; }
                              1. Hallo wahsaga,

                                http://community.de.selfhtml.org/robots.txt

                                Interessant, was macht denn das Allow da drin

                                Naja, es soll Suchmaschinen geben, die das beachten.

                                Google selfhtml+community vs. "self mail"
                                Yahoo! selfhtml+community vs. "self mail"

                                Ich bezweifle, dass das Zufälle oder Unfälle sind. Offenbar wird "allow" tatsächlich wie gewünscht interpretiert.

                                Die MSN-Suche hingegen pfeift anscheinend auf robots.txt.

                                • ist das ein Scherz, den nur Mitglieder(innen) des inner circle verstehen?

                                Ja, ein funktionierendes Easteregg.

                                Grüße
                                 Roland

                                1. Die MSN-Suche hingegen pfeift anscheinend auf robots.txt.

                                  Aha, das ist doch interessant. Also kein rechtliches Problem, sonst hätten die ihren Dienst schon längst einstellen müssen. Gerade MSN wäre wohl ein beliebtes Ziel für Open Source-Aktivisten ;-)

                                  Bleibt die moralische Verpflichtung

                          2. Moin!

                            Was spricht dagegen, robots.txt zu parsen und die Wünsche der Sitebetreiber ernst zu nehmen? Auch für Suchmaschinen gibt es so etwas wie eine Netiquette.

                            im Prinzip nichts, aber es ist halt rechtlich zulässig das zu unterlassen.

                            Es ist nur die Frage, ob es schlau ist, das zu unterlassen.

                            robots.txt wird von ernsthaften Anbietern wirklich dazu genutzt, Spider von gewissen Bereichen fernzuhalten. Veröffentlicht eine Suchmaschine wegen Nichtbeachtung dieser Datei oder der äquivalenten Metatags trotzdem Inhalte, so könnte das angesprebte rechtliche Urteil unter Umständen durchaus anders ausfallen, nämlich gegen die Suchmaschine. Man könnte argumentieren, dass durch die Äußerung des Seitenbetreibers, die in maschinenlesbarer Form in robots.txt und/oder Meta-Tag erfolgt, eine Willenserklärung erfolgt, die zu beachten ist.

                            Darüber hinaus gibt es Zeitgenossen, die absichtliches Suchmaschinenspamming in der Form betreiben, dass sie einen bestimmten Bereich ihrer Site per robots.txt ausschließen, und dort absichtlich ignorante Suchmaschinenspider mit Müllcontent abfüllen.

                            Es ist also im ureigensten Interesse eines Spiderprogrammierers mit legitimem Interesse, die robots.txt und auch die Metatags zu beachten.

                            - Sven Rautenberg

                            --
                            My sssignature, my preciousssss!
                            1. im Prinzip nichts, aber es ist halt rechtlich zulässig das zu unterlassen.

                              Es ist nur die Frage, ob es schlau ist, das zu unterlassen.

                              Bleiben wir doch bitte kurz _präzise_, das Thema eignet sich weder für Panikmache noch das Gegenteil davon. Also was von dem, was Du sagst ist schonmal durch ein Gerichtsurteil bestätigt worden? Hast Du einen Link? Kennst Du eines, würde mich wirklich interessieren? Man kann Dich schliesslich immer wegen allem Möglichen verklagen. Wie sieht es mit Sites wie digg.com aus? Sind die zum Beispiel auch rechtlich angreifbar? Wie schützen die sich dagegen? Deren Inhalte (also auch Links) werden schliesslich dynamisch von den Nutzern eingetragen.

                              Grüsse, Stefan

              3. Hi,

                Nö, wie kommst Du darauf? Es gibt dazu meines Wissens nach nicht ein Urteil.

                S. Svens selfHTML-Beispiel: Der Nutzer eines schlecht programmierten Robots könnte sich der Computersabotage schuldig machen.

                Im Gegenteil sind sowohl Deeplinks als auch Framing zulässig. Zu letzterem hat 2003 das BGH geurteilt.

                ? Zu ersterem!

                Framing, also das Einbinden fremder Inhalte in einem eigenen Frame (unter eigenem URL) soll mittlerweile erlaubt sein? Also diese Behauptung würde ich dann doch gerne verifiziert wissen! =:-o

                Gruß, Cybaer

                --
                Hinweis an Fragesteller: Fremde haben ihre Freizeit geopfert, um Dir zu helfen. Helfe Du auch im Archiv Suchenden: Beende deinen Thread mit einem "Hat geholfen" oder "Hat nicht geholfen"!
          2. Hallo,

            Nein, auf die robots.txt achte ich nicht, muss ich das? Rechtlich gesehen?

            Beschäftige Dich bitte mit http://www.robotstxt.org/wc/norobots.html! Ein rechtlicher Anspruch aus einen Eintrag in der robots.txt erwächst meines erachtens nicht, allerdings muß ich Dich vor meinen Scripten waren, die Dir, wenn Du Dich bei bestimmten Webs nicht an die Einträge hälst, Deine Scripte mit /dev/urandom kurzschließen... ;)

            Gruß aus Berlin!
            eddi

            --
            Wer Rechtschreibfehler findet, darf sie behalten.
      2. Hello,

        Wow, langer Text :)
        Da wühl ich mich erstmal durch.

        Zu deiner Frage:
        Nein, natürlich nicht. Ich lese die Seite ganz normal mit PHP ein, nichts illegales o.Ä..

        Soweit ich weiß, gibt es in Dänemark ein Gesetz gegen Verlinken. Bin mir aber jetzt nicht sicher, ob das nur die Deeplinks betrifft, oder generell das Verlinken. Man muss erst die Einwilligung des Rechteinhabers haben. Dazu passt das momentane Verhalten mit den Karikaturen eigentlich gar nicht.

        Harzliche Grüße vom Berg
        http://www.annerschbarrich.de

        Tom

        --
        Fortschritt entsteht nur durch die Auseinandersetzung der Kreativen
        Nur selber lernen macht schlau

  2. Moin!

    ich bin Betreiber einer Suchmaschine.
    Nun hat mich ein Admin einer Website, die ich durchsuche, angesprochen, dass ich seine Website nicht mehr durchsuchen soll.

    Wir hatten seitens SELFHTML vor einiger Zeit (und auf dem alten Server) mal das Problem, dass ein Suchmaschinenspider einer Hochschule auf unser Archiv losgelassen wurde. Der Spider hat sich an keinerlei Regeln hinsichtlich der Lastverteilung gehalten und so schnell wie möglich alle erreichbaren Seiten abgefragt. Dabei hat er mehrere Gigabyte an Traffic erzeugt und den Server komplett lahmgelegt (Load war IIRC über 200).

    Bei so einem Spiderverhalten haben wir dann dort auch mal angeklingelt - und zuvor den Zugriff auf den Server für die benutzte IP gesperrt.

    Ich stelle seinen Inhalt jedoch nicht auf meiner Website zur Verfügung, sondern verlinke nur zu seiner Seite.

    Dieser böse Spider hat die Suchdaten vermutlich nirgendwo öffentlich zur Verfügung gestellt. Es war einfach nur eine extrem unfreundliche Art, wie der Spider angekommen ist.

    Meine Frage ist, ob ich seine Seite trotz seiner Aufforderung durchsuchen darf und er einen Weg finden muss, um mich zu blocken, oder ob ich seine Website wirklich nicht durchsuchen darf???

    Dich wird grundsätzlich niemand daran hindern, öffentlich erreichbare Webseiten zu spidern (bitte nett sein, siehe oben), die gewonnenen Daten zu verarbeiten und eine Suchmaschine öffentlich zu machen. Dass man grundsätzlich auch Deep Links auf andere Seiten setzen darf, hat der BGH ja in einem Grundsatzurteil festgestellt.

    Es gibt aber natürlich Einschränkungen durch nähere Umstände, die du nicht berichtet hast. Eine "Suchmaschine für Firmen, die ich scheiße finde" beispielsweise dürfte wesentlich eher rechtlich angreifbar sein.

    - Sven Rautenberg

    --
    My sssignature, my preciousssss!
  3. Hi,

    Meine Frage ist, ob ich seine Seite trotz seiner Aufforderung durchsuchen darf und er einen Weg finden muss, um mich zu blocken, oder ob ich seine Website wirklich nicht durchsuchen darf???

    halt dich einfach an die robots.txt. Diesen Wunsch sollte man respektieren, wenn er keine hat, spider weiter.

    E7