rob: Ganze Webseiten Speichern (inkl. Bildern)

Beitrag lesen

Hi!

ich suche nach einer Möglichkeit von einer Webseite per Script ein komplettes Abbild zu ziehen, inkl. der Bilder die dort dargestellt werden.

Da gibt es eine ganze Menge an guten Programmen.

Derzeit arbeite ich mit Curl, da fehlen mir aber leider die Bilder auf den Seiten so das nach einiger Zeit die Archivierten Daten unvollständig werden.

cURL kann aber doch auch Bilder runterladen.
Ich weiß nicht, wieso das bei dir nicht funktioniert.
Vermutlich machst du irgendwas falsch?
Wie rufst du das Programm auf? Welche Parameter übergibst du?

Ein weiteres gutes Programm ist "GNU wget". Das könntest du auch mal versuchen.

Laut Titel bezieht sich dein Posting auf PHP.
Deine Frage hat für mich aber nicht sichtbar erkenntlich mit PHP zu tun.
Willst du mit PHP auf ein Programm (wie cURL oder wget) zugreifen, womit du Webseiten runterladen kannst?
Oder willst du dir selbst ein Script schreiben?
Du kannst das recht einfach selber machen, indem du ein Script schreibst, was eine Verbindung zu einem Server aufbaut und alle Files speichert:
Einfach mit fsockopen() ein Socket öffnen und dann HTTP-Kommandos absetzen.

Die Darstellung muss nicht 100%tig sein, wenn mal ein Wackler drin ist wäre es nicht schlimm.

Das verstehe ich nicht.
Welche Darstellung? Was für Wackler?
Ich dachte, du wolltest alle Seiten so runterladen, wie sie sind..?

Schöner Gruß,
rob