Moin!
Zu meiner Frage: Ich wurde gebeten eine Website offline verfügbar zu machen, so dass sie auf CD präsentiert werden kann.
wget ist Dein Freund.
Um die Seite offline verfügbar zu machen und dabei zugleich alle Links in relative umzuwandeln musst Du folgende Optionen verwenden:
wget -D deineDomain.tld -rkp http://deineDomain.tld/
Es wird im aktuellen Verzeichnis ein Unterverzeichnis "deineDomain.tld" erzeugt und alles darin gespeichert.
Hier die Liste der Aufruf-Optionen, die zugleich als Funktionsbeschreibung dienen kann. ("Mein" wget liefert auf "meiner" Linux-Installation auch eine deutsche Hilfe.)
Beim Start:
-V, --version Programmversion anzeigen und beenden
-h, --help diese Hilfe anzeigen
-b, --background nach dem Starten in den Hintergrund gehen
-e, --execute=BEFEHL einen ».wgetrc«-artigen Befehl ausführen
Log-Datei schreiben und Eingabe-Datei:
-o, --output-file=DATEI Protokoll-Meldungen in DATEI schreiben
-a, --append-output=DATEI Meldungen der DATEI anhängen
-d, --debug Debug-Ausgabe anzeigen
-q, --quiet keine Ausgabe von Meldungen
-v, --verbose ausführliche Meldungen (Vorgabe)
-nv, --non-verbose Meldungen weniger ausführlich, aber nicht »--quiet«
-i, --input-file=DATEI in DATEI gelistete URLs holen
-F, --force-html Eingabe-Datei als HTML behandeln
-B, --base=URL URL relativen Links in »-F -i DATEI« voranstellen
Download:
-t, --tries=ZAHL Anzahl der Wiederholversuche auf ZAHL setzen
(0 steht für unbegrenzt)
--retry-connrefused Wiederhole, auch wenn der Partner die Verbindung abgelehnt hat.
-O --output-document=DATEI Dokumente in DATEI schreiben
-nc, --no-clobber bestehende Dateien nicht überschreiben oder
».#« Suffix verwenden
-c, --continue Fortführung des Downloads einer bereits zum
Teil geholten Datei
--progress=STYLE Anzeige für den Download auf STYLE setzen
-N, --timestamping Nur Dateien holen, die neuer als die lokalen
Dateien sind
-S, --server-response Antwort des Servers anzeigen
--spider kein Download (don't download anything)
-T, --timeout=SEKUNDEN alle Timeouts auf SEKUNDEN setzen
--dns-timeout=SEKUNDEN den Timeout der DNS-Abfrage auf SEKUNDEN setzen
--connect-timeout=SEKUNDEN den Connect-Timeout auf SEKUNDEN setzen
--read-timeout=SEKUNDEN den Lese-Timeout auf SEKUNDEN setzen
-w, --wait=SEKUNDEN SEKUNDEN zwischen den Downloads warten
--waitretry=SEKUNDEN 1...SEKUNDEN zwischen den erneuten Versuchen
warten
--random-wait Zwischen 0 und 2*WAIT Sekunden zwischen
Versuchen warten
-Y, --proxy Proxy verwenden
--no-proxy Keinen Proxy verwenden
-Q, --quota=ZAHL Kontingent für den Download auf ZAHL setzen
--bind-address=ADRESSE An die ADRESSE (Hostname oder IP) des lokalen
Rechners binden
--limit-rate=RATE Datenrate beim Download auf RATE begrenzen
--dns-cache=off Cachen von DNS-Abfragen ausschalten
--restrict-file-names=OS Verwendbare Zeichen in Dateinamen auf
diejenigen einschränken, die das
Betreibssystem erlaubt
-4, --inet4-only Verbinde nur zu IPv4-Adressen.
-6, --inet6-only Verbinde nur zu IPv6-Adressen.
--prefer-family=FAMILIE Versuche zunächste eine Verbindung zur
angegebenen Familie, eins von »IPv6«,
»IPv4« oder »none«
--user=USER Verwende USER sowohl als ftp- als auch als http-Benutzer.
--password=PASS Verwende PASS sowohl als ftp- als auch als http-Passwort.
Verzeichnisse:
-nd --no-directories keine Verzeichnisse anlegen
-x, --force-directories Anlegen von Verzeichnissen erzwingen
-nH, --no-host-directories keine Host-Verzeichnisse anlegen
--protocol-directories Verwende den Protokollnamen in Verzeichnissen
-P, --directory-prefix=PREFIX Dateien unter dem Verzeichnis PREFIX/...
speichern
--cut-dirs=ZAHL ZAHL der Verzeichnisebenen der Gegenseite
überspringen
HTTP-Optionen:
--http-user=BENUTZER http-Benutzer auf BENUTZER setzen
--http-passwd=PASS http-Passwort auf PASS setzen
--no-cache Verbiete durch den Server gecachte Daten
-E, --html-extension alle text/html-Dokumente mit dem Suffix .html
speichern
--ignore-length das »Content-Length«-Kopffeld ignorieren
--header=ZEICHENKETTE ZEICHENKETTE zwischen die Kopfzeilen einfügen
--proxy-user=BENUTZER BENUTZER als Proxy-Benutzername setzen
--proxy-passwd=PASS PASS als Proxy-Passwort setzen
--referer=URL die Kopfzeile `Referer: URL' der HTTP-Anforderung
hinzufügen
--save-headers den HTTP-Vorspann (header lines) in Datei sichern
-U, --user-agent=AGENT als AGENT anstelle of Wget/VERSION identifizieren
--no-http-keep-alive »HTTP keep-alive« (ununterbrochene Verbindungen)
deaktivieren
--no-cookies Cookies nicht verwenden
--load-cookies=DATEI Cookies vor der Sitzung aus der DATEI laden
--save-cookies=DATEI Cookies nach der Sitzung in der DATEI speichern
--keep-session-cookies Lade und speichere (nicht-permanente) Session-Cookies.
--post-data=STRING Verwende die POST-Methode, sende dabei die
Zeichenkette STRING als Daten
--post-file=DATEI Verwende die POST-Methode, sende dabei den
Inhalt aus DATEI
HTTPS (SSL) Optionen:
--secure-protocol=PR Verwende als sicheres Protokoll eins aus
»auto«, »SSLv2«, »SSLv3« oder »TLSv1«.
--no-check-certificate Das Server-Zertifikat nicht validieren.
--certificate=DATEI Datei mit dem Client-Zertifikat.
--certificate-type=TYP Typ des Client-Zertifikates, »PEM« oder »DER«.
--private-key=DATEI Datei mit dem Private Key
--private-key-type=TYP Typ des Private Key, »PEM« oder »DER«
--ca-certificate=DATEI Datei mit der CA-Sammlung
--ca-directory=VERZEICHNIS Verzeichnis mit der Hash-Liste der CAs
--random-file=DATEI Datei mit Zufallsdaten zur Initialisierung des
SSL Pseudo-Zufallszahlen-Generators
--egd-file=DATEI Dateiname des EGD-Sockets mit Zufallszahlen
FTP-Optionen:
--ftp-user=BENUTZER Verwende BENUTZER als ftp-Benutzername
--ftp-password=PASSWORT Verwende PASSWORT als ftp-Passwort
--no-remove-listing ».listing«-Dateien nicht entfernen
--no-glob Schalte ftp Dateinamens-Globbing aus
--no-passive-ftp Verwende nur »aktiven« Transfer-Modus
--retr-symlinks falls auftretend, verlinkte Dateien holen (keine
Verzeichnisse)
--preserve-permissions Erhalte die Dateirechte des Servers
Rekursives Holen:
-r, --recursive rekursiver Download -- mit Umsicht verwenden!
-l, --level=Zahl maximale Rekursionstiefe (»inf« oder »0« steht
für ohne Begrenzung)
--delete-after geholte Dateien nach dem Download löschen
-k, --convert-links nicht-relative Links in relative umwandeln
-K, --backup-converted vor dem Umwandeln der Datei X, ein Backup als
X.orig anlagen.
-m, --mirror Kurzform, die »-r -N -l inf -nr --no-remove-listing« entspricht.
-p, --page-requisites alle Bilder usw. holen, die für die Anzeige
der HTML-Seite notwendig sind
--strict-comments Strikte Handhabung (SGML) von HTML-Kommentaren
Rekursiv erlauben/zurückweisen:
-A, --accept=LISTE komma-unterteilte Liste der erlaubten
Dateiendungen
-R, --reject=LISTE komma-unterteilte Liste der
zurückzuweisenden Erweiterungen
-D, --domains=LISTE komma-unterteilte Liste der erlaubten
Domains
--exclude-domains=LISTE komma-unterteilte Liste der
zurückzuweisenden Domains
--follow-ftp FTP-Verweisen von HTML-Dokumenten aus
folgen
--follow-tags=LISTE komma-unterteilte Liste der zu folgenden
HTML-Tags
--ignore-tags=LISTE komma-unterteilte Liste der zu
missachtenden HTML-Tags
-H, --span-hosts wenn »--recursive«, auch zu fremden Hosts
gehen
-L, --relative nur relativen Verweisen folgen
-I, --include-directories=LISTE Liste der erlaubten Verzeichnisse
-X, --exclude-directories=LISTE Liste der auszuschließenden Verzeichnisse
-np, --no-parent nicht in das übergeordnete Verzeichnis
wechseln
MFFG (Mit freundlich- friedfertigem Grinsen)
fastix®