komplette Seite per wget herunterladen?
RuD
- software
1 Christoph Schnauß0 RuD0 Christoph Schnauß0 RuD
0 steckl0 Christoph Schnauß0 RuD0 RuD
Seid gegrüßt!
ich denke gelsen zu haben, dass man mit wget ganze Sieten herunterladen kann, also mit jeder Resource. Ist das wahr?
Falls dem so ist kann man auch (rekursiv) allen internen Links folgen und somit ALLE Seiten herunterladen? Und ist es auch möglich die URLs der Resourcen so anzupassen, dass die Seite offline funktionieren würde.
Ich meine so etwas wie es der IE und auch FF können, mittels "Seite speichern unter" und dann "Webeite komplett". Es geht mir darum eine dynamische (mysql und php) Seite so herunterzu laden, dass sie statisch ist.
Ist so etwas möglich oder bin ich da auf dem Holzweg?
hallo,
ich denke gelsen zu haben, dass man mit wget ganze Sieten herunterladen kann, also mit jeder Resource. Ist das wahr?
Ja, so ungefähr
Falls dem so ist kann man auch (rekursiv) allen internen Links folgen und somit ALLE Seiten herunterladen?
Ja, so ungefähr.
Und ist es auch möglich die URLs der Resourcen so anzupassen, dass die Seite offline funktionieren würde.
Ups?
Es geht mir darum eine dynamische (mysql und php) Seite so herunterzu laden, dass sie statisch ist.
Ups?
Ist so etwas möglich oder bin ich da auf dem Holzweg?
An die Datenbank (MySQL) wirst du nicht herankommen. An ein PHP-Script kommst du _unter Umständen_ heran, wenn du seinen genauen Namen und die URL kennst.
Probiere es einfach aus. Alles, was du wissen möchtest, findest du natürlich unter http://www.gnu.org/software/wget.
Grüße aus Berlin
Christoph S.
Seid gegrüßt!
Und ist es auch möglich die URLs der Resourcen so anzupassen, dass die Seite offline funktionieren würde.
Ups?
Ich glaube du hast micht falsch verstanden. Ich rede nicht um den php-code, ich möchte die "fertig" generierten html-Inhalte, herunterladen. Ich möchte sozusagen eine statische "Backup"-Kopie von dynamisch generierten Inhalten anfertigen.
An die Datenbank (MySQL) wirst du nicht herankommen. An ein PHP-Script kommst du _unter Umständen_ heran, wenn du seinen genauen Namen und die URL kennst.
s.o.
Probiere es einfach aus. Alles, was du wissen möchtest, findest du natürlich unter http://www.gnu.org/software/wget.
Dort werde ich mich natürlich auch belesen - heut aber nciht mehr ... ist schon spät. Es ging mir nur um das generelle "Geht sowas?".
hallo,
Ich möchte sozusagen eine statische "Backup"-Kopie von dynamisch generierten Inhalten anfertigen.
Dann solltest du wget nicht bemühen, sondern bei den dir bereits bekannten Methoden "Ziel speichern unter" (im IE) bleiben.
Alles, was du wissen möchtest, findest du natürlich unter http://www.gnu.org/software/wget.
Dort werde ich mich natürlich auch belesen - heut aber nciht mehr
Es kam mir nur darauf an, dir die Adresse anzugeben. Wann du dort nachliest, ob du dort nachliest und wieviel du davon beherzigen möchtest - das ist alles deine freie Entscheidung ;-)
Grüße aus Berlin
Christoph S.
Seid gegrüßt!
Dann solltest du wget nicht bemühen, sondern bei den dir bereits bekannten Methoden "Ziel speichern unter" (im IE) bleiben.
Das könnte wiederum eine Menge Arbeit werden und die Seiten wären dann lokal nicht untereinander verlinkt.
Hi,
ich denke gelsen zu haben, dass man mit wget ganze Sieten herunterladen kann, also mit jeder Resource. Ist das wahr?
Ja.
Falls dem so ist kann man auch (rekursiv) allen internen Links folgen und somit ALLE Seiten herunterladen?
Ja, wenn du genug Speicherplatz zur Verfügung hast sollte das kein Problem sein.
Und ist es auch möglich die URLs der Resourcen so anzupassen, dass die Seite offline funktionieren würde.
Ja, auch das ist möglich.
Siehe Beschreibung zu wget (oder auch man wget).
Dich dürften besonders die Optionen -r (für rekursiv) -l (für die Rekursionstiefe) -E (damit z.B. bei *.php-Files die Endung html angehängt wird) und -k (damit links auf die Offline-Dateien "umgebogen" werden) interessieren.
mfG,
steckl
hallo,
ich denke gelsen zu haben, dass man mit wget ganze Sieten herunterladen kann, also mit jeder Resource. Ist das wahr?
Ja.
Du solltest erwähnen, daß wget "bestandteil" (bzw. eine Abhängigkeit) in diversen Linux-Installationstools ist. apt (in Debian und seinen Derivaten), YaST (in SUSE) und emerge (in Gentoo) benutzen alle miteinander wget.
Grüße aus Berlin
Christoph S.
Seid gegrüßt!
Falls dem so ist kann man auch (rekursiv) allen internen Links folgen und somit ALLE Seiten herunterladen?
Ja, wenn du genug Speicherplatz zur Verfügung hast sollte das kein Problem sein.
Deshalb will ich ja nur den internen Links und Resourcen folgen.
Siehe Beschreibung zu wget (oder auch man wget).
Dich dürften besonders die Optionen -r (für rekursiv) -l (für die Rekursionstiefe) -E (damit z.B. bei *.php-Files die Endung html angehängt wird) und -k (damit links auf die Offline-Dateien "umgebogen" werden) interessieren.
Danke für die doch sehr genauen Infos.
Seid gegrüßt!
Das funktioniert ja wunderbar. Das einzige, was nicht funktioniert, ist das herunterladen von im (externen) CSS enthaltenen Ressourcen. Aber daran versuch ich mich noch.