sensur: Textinhalte mehrerer Webseiten zusammenführen

Die Situation: Auf vielen Websites werden Artikel auf mehrere Seiten verteilt (z. Bsp. Chip.de, Comupterwoche.de).
Der Wunsch: Nur den gesamten Textinhalt eines Artikels von den Einzelseiten zusammenführen in einer Text- oder html-Datei zum Lesen, Ausdrucken oder archivieren.
Welche Werkzeuge und Techniken wären dafür geeignet, um das Ganze automatisiert (quasi auf Knopfdruck) dem Browserbenutzer bereit zu stellen?
Schon mal danke!
sensur

  1. Ich grüsse den Cosmos,

    Welche Werkzeuge und Techniken wären dafür geeignet, um das Ganze automatisiert (quasi auf Knopfdruck) dem Browserbenutzer bereit zu stellen?

    Jede Technik, die es ermöglicht, Webseiten abzurufen, deren Inhalt zu verarbeiten und das Ergebnis an den Browser zu senden. Also jede
    serverseitige Technik, mit der man Webanwendungen realisieren kann.

    Möge das "Self" mit euch sein

    --
    Neulich dachte ich mir, einmal S/M ausprobieren wäre eine tolle Erfahrung. Also hab ich Windows gebootet ...
    ie:{ br:> fl:| va:| ls:& fo:{ rl:( n4:{ de:] ss:) ch:? js:| mo:) sh:( zu:)
    1. Jede Technik, die es ermöglicht, Webseiten abzurufen, deren Inhalt zu verarbeiten und das Ergebnis an den Browser zu senden. Also jede
      serverseitige Technik, mit der man Webanwendungen realisieren kann.

      Wobei die Umsetzung ziemlich Kopfschmerzen macht...
      Ich würde daher präzisieren:
      Weil die Erkennung des gewünschten konsistenten Blocks, der zusammengeführt werden soll, wichtig ist, schlage ich Perl als geeignete Sprache vor.
      Und falls man dann diesen Inhalt auch noch per Knopfdruck zur Verfügung stellen will, schlage ch schon mal einen teuren Anwalt vor.
      Für den lokalen privaten Gebrauch kann ich das Anliegen durchaus verstehen. In diesem Fall braucht man auch keinen Server, sondern lediglich den Interpreter.