(ZU DIESEM FORUM) FORUM archiv - offline suchen
Hans
Hallo Forum,
nun habe ich alles lokal was es zu geben scheint. Aber auch eine Frage:
Kann ich das Forumarchiv auch lokal oder offline durchsuchen? (dafür habe ich doch auch runtergeladen, oder?)
Danke und digitale Grüße
Hans
hi,
du hast windows?
start->suchen->dateien/ordner->enthaltener text
du hast linux?
find . -name "suchbegriff"
wobei du im archivorder sein solltest
Jan Lehnardt
Hallo Hans,
Kann ich das Forumarchiv auch lokal oder offline durchsuchen? (dafür habe ich doch auch runtergeladen,
Wenn du einen lokalen Webserver hast und dir zutraust, ein CGI-Programm zu installieren, dann schnapp dir den Source-Code von <../../sfarchiv/src/sfasuch2.txt>, benenne das Ganze um in irgendwas.pl, sieh zu, dass du Verzeichnisse usw. richtig anpasst, und schon hast du deine Suchmaschine lokal (aufrufbar z.B. mit http://localhost/cgi-bin/forumsuche.pl). Aber wie gesagt: das ist nur fuer Versierte und kein Klickibunti-Selbstinstallations-Programm!
viele Gruesse
Stefan Muenz
Hallo Hans,
Leider hab ich noch eine Kleinigkeit vergessen. Diese Datei hier: <../../sfarchiv/sfa_idx.txt> brauchst du auch noch. Und zwar alle drei Monate, nach dem Download eines neuen Quartals. Einen kleinen Haken hat die Sache - diese nette Textdatei ist derzeit 41 MB gross und wird auch nicht kleiner <g>. Aber nachdem du dir die ganzen Archiv-ZIPs angetan hast, wird dich das ja wohl nicht mehr schocken ... ;-)
viele Gruesse
Stefan Muenz
Hallo Stefan!
»»Diese Datei hier: <../../sfarchiv/sfa_idx.txt>
Nett. Jetzt weiss ich, daß ich eine 41MB txt-Datei mit dem IE öffnen kann. ;-)
Grüße
Thomas
Hallo!
Leider hab ich noch eine Kleinigkeit vergessen. Diese Datei hier: <../../sfarchiv/sfa_idx.txt> brauchst du auch noch.
Ich hab' mal ein Perl-Script geschrieben, dass diese Datei automatisch *Updatet*. Aber einmal vollständig herunterladen muss man sie halt trotzdem. Um nicht 40 MB durch die Telefonleitung zu quetschen, lud ich diese Datei zuerst auf einen schnellen Server, der sie dann auf 10 MB komprimierte.
Falls jemand Interesse hat, stelle ich das Script und die komprimierte Indexdatei gerne zur Verfügung.
Gruss
Andreas
Ich hab' mal ein Perl-Script geschrieben, dass diese Datei automatisch *Updatet*. Aber einmal vollständig herunterladen muss man sie halt trotzdem.
Irgendwie klingt das nach einem Widerspruch.
Kann Dein Skript den Index inkrementell erweitern?
Wenn ja, wieso kannst Du dann nicht mit einem leeren Index anfangen und dann ein Archiv-Verzeichnis nach dem anderen hinzufügen?
Letzten Endes bräuchten wir ein Skript, welches über das gesamte Archiv drüber läuft und einen kompletten Index daraus berechnet.
Leider scheint sich das Archiv-Format zwischendurch irgendwann mal geändert zu haben, und die Liste der Fehler in alten Archiv-Dateien, welche Calocybes Skripte (danke!) zu finden in der Lage zu sein scheinen, ist auch etwas lästig.
(Stefan, was hältst Du davon, wenn jemand diese Handvoll Threads repariert und dann die Download-Archive aktualisiert?)
Hallo Michael
Ich hab' mal ein Perl-Script geschrieben, dass diese Datei automatisch *Updatet*. Aber einmal vollständig herunterladen muss man sie halt trotzdem.
Irgendwie klingt das nach einem Widerspruch.
Kann Dein Skript den Index inkrementell erweitern?
Wenn ja, wieso kannst Du dann nicht mit einem leeren Index anfangen und dann ein Archiv-Verzeichnis nach dem anderen hinzufügen?
Mit Updaten meine ich, dass mein Script die Datei sfa_idx.txt vom teamone-Server holt, und nicht, dass aus den Archivdateien der Index erweitert wird. Am besten poste ich mal das Script.
Gruss
Andreas
--------------------
#!/usr/bin/perl
$idxDatei = "../selfhtml/sfarchiv/sfa_idx.txt";
$url = "http://www.teamone.de/selfhtml/sfarchiv/sfa_idx.txt";
$filelock = 0;
open(IDX, ">>$idxDatei") or die "Can't open $idxDatei: $!";
if($filelock) { flock(IDX, 2) or die "Can't lock $idxDatei: $!" }
$bytes = -s IDX;
use LWP::Simple;
if($bytes < (head($url))[1])
{
use HTTP::Headers;
$header = new HTTP::Headers;
$header->header(Range => "bytes=$bytes-");
use LWP::UserAgent;
$ua = new LWP::UserAgent;
$request = HTTP::Request->new(GET, $url, $header);
binmode IDX;
$response = $ua->request($request, sub { print IDX $_[0] });
}
close(IDX) or die "Can't close $idxDatei: $!";
Mit Updaten meine ich, dass mein Script die Datei sfa_idx.txt vom teamone-Server holt, und nicht, dass aus den Archivdateien der Index erweitert wird.
Wieso braucht man *dafür* ein Skript?
Reicht nicht eine HTML-Seite mit einem Link auf diesen URL und dann ein "Verknüpfung speichern unter"?
Hallo Michael
Mit Updaten meine ich, dass mein Script die Datei sfa_idx.txt vom teamone-Server holt, und nicht, dass aus den Archivdateien der Index erweitert wird.
Wieso braucht man *dafür* ein Skript?
Reicht nicht eine HTML-Seite mit einem Link auf diesen URL und dann ein "Verknüpfung speichern unter"?
Das Script lädt nicht die gesamte Datei herunter (ausser sie ist noch nicht vorhanden), sondern nur den benötigten Teil. Ausserdem kann man es in die Archivsuche integrieren und hat dann immer ein aktuelles Suchergebnis (vorausgesetzt, man ist mit dem Internet verbunden).
Gruss
Andreas