Page Grabber
waki
- https
0 Twilo0 Zeromancer0 Ashura
0 fastix®
Hallo Leute,
ich muss für einen Kollegen meine komplette Site zur Verfügung stellen.
Da ich derzeit keinen Zugriff per FTP habe, möchte ich gerne einen sogenannten "Grabber" dafür nutzen - er möchte die Site nur zum Offline-Surfen benutzen und nicht am Quellcode arbeiten; daher reicht dies aus.
Nun habe ich aber bisher noch nie mit solchen Tools gearbeitet und würde mich freuen, wenn mir jemand einen "kostenlosen" Grabber empfehlen kann inkl. Link zum Download - ich habe trotz Google nichts leider nichts richtiges finden können.
Vielen Dank für Eure Mühen,
Gruss,
waki
Hallo,
Nun habe ich aber bisher noch nie mit solchen Tools gearbeitet und würde mich freuen, wenn mir jemand einen "kostenlosen" Grabber empfehlen kann inkl. Link zum Download - ich habe trotz Google nichts leider nichts richtiges finden können.
ich verwende dafür Firefox zusammen mit SpiderZilla
mfg
Twilo
Hallo waki,
Nun habe ich aber bisher noch nie mit solchen Tools gearbeitet und würde mich freuen, wenn mir jemand einen "kostenlosen" Grabber empfehlen kann inkl. Link zum Download - ich habe trotz Google nichts leider nichts richtiges finden können.
ich benutze Httrack. Ist ganz einfach.
Mit freundlichen Grüßen,
André
Hallo Zeromancer.
ich benutze Httrack. Ist ganz einfach.
Aber leider nur unter Windows wirklich benutzbar.
Einen schönen Sonntag noch.
Gruß, Ashura
Moin!
Da ich derzeit keinen Zugriff per FTP habe, möchte ich gerne einen sogenannten "Grabber" dafür nutzen - er möchte die Site nur zum Offline-Surfen benutzen und nicht am Quellcode arbeiten; daher reicht dies aus.
Free & OpenSource:
wget http://www.interlog.com/~tcharron/wgetwin.html
wget -mrk http://www.examle.com/ sollte den Rest erledigen. Ein Ordner 'www.examle.com' wird im aktuellen Verzeichnis angelegt, alle verlinkten Dateien werden mit geholt, die Adressen in relative Verweise 'übersetzt'.
MFFG (Mit freundlich- friedfertigem Grinsen)
fastix®