Seid gegrüßt!
ich denke gelsen zu haben, dass man mit wget ganze Sieten herunterladen kann, also mit jeder Resource. Ist das wahr?
Falls dem so ist kann man auch (rekursiv) allen internen Links folgen und somit ALLE Seiten herunterladen? Und ist es auch möglich die URLs der Resourcen so anzupassen, dass die Seite offline funktionieren würde.
Ich meine so etwas wie es der IE und auch FF können, mittels "Seite speichern unter" und dann "Webeite komplett". Es geht mir darum eine dynamische (mysql und php) Seite so herunterzu laden, dass sie statisch ist.
Ist so etwas möglich oder bin ich da auf dem Holzweg?
--
Bis Später
RuD
________________________________________________________________
SelfCode: ie:% fl:( br:^ va:) ls:< fo:| rl:( n4:& ss:) de:> js:| ch:| mo:| zu:)
Bis Später
RuD
________________________________________________________________
SelfCode: ie:% fl:( br:^ va:) ls:< fo:| rl:( n4:& ss:) de:> js:| ch:| mo:| zu:)