SelfHTML Feature Artikel irgendwie vollständig downloadbar?
Sebastian
- sonstiges
0 Christoph Schnauß0 Marc Reichelt0 Siechfred
Hallo alle zusammen,
ich weis ncht, ob ich irgendwie auf meine Augen oder Google Kenntnisse gefallen bin: Ich wollte die aktuellen Feature Artikel quasi wie SelfHTML selbst als zip o.ä. vollständig saugen, um sie mir mal in Ruhe offline (und nicht im wackeligen Cache ...) durchlesen zu können. Gibt's da irgendwo ne Möglickeit zu? Hab auch schon Programme wie GetRight auf SelfAktuell angesetzt, um einfach so die ganze Seite im mal zu ziehen, nur krepieren die meist an den vielen Dateien oder Unterordnerinstanzen oder an querverweisen (von Bildern) auf andere SubDomains oder an PHPs oder .......
Na ja, wie dem auch sei, wäre Dankbar für eure Tips oder die allgemeine Einrichtung einer solchen Möglichkeit seitens SelfHTML selbst
So weit, beste Grüße
Sebastian
hallo Sebastian,
ich wollte die aktuellen Feature Artikel quasi wie SelfHTML selbst als zip o.ä. vollständig saugen
Als downloadbares ZIP-Archiv gibt es sie nicht. Auf einer Linux-Maschine kannst du es aber mit wget sehr leicht alles auf einen Rutsch holen, ein Äquivalent für Windows ist mir nicht bekannt.
Grüße aus Berlin
Christoph S.
Hallo Christoph.
ein Äquivalent für Windows ist mir nicht bekannt.
Gruß, Ashura
Hallo Christoph
..., ein Äquivalent für Windows ist mir nicht bekannt.
Kennst du wget nicht? ;-)
(wget gibt es auch für Windows)
Auf Wiederlesen
Detlef
hallo Detlef,
Kennst du wget nicht? ;-)
Na doch, sonst hätt ich es ja nicht empfohlen.
(wget gibt es auch für Windows)
Das war mir allerdings bisher nicht bekannt, und mir selber ist es auch wurscht ;-)
Grüße aus Berlin
Christoph S.
hallo Sebastian,
Hoi
Als downloadbares ZIP-Archiv gibt es sie nicht. Auf einer Linux-Maschine kannst du es aber mit wget sehr leicht alles auf einen Rutsch holen, ein Äquivalent für Windows ist mir nicht bekannt.
Wget gibts auch fuer windows.
Mfg
ah ups :)
Man sollte erst zuende lesen.
N'Abend allerseits
Danke für den Tip mit wget, der bugt bei SelfAktuell nicht so wie die anderen Downloadmanager. Hab ihn unter Debian installiert gehabt, passte.
Trotzdem, ich zähle zu der seltenen Sorte Leute, die sich noch an einem lebendigen 56k Modem "erfreuen" (Geschwindigkeit und der Nebenwirkungen all/incl.). Immerhin hat das Ding erst vor kurzem 14K abgelöst ...
Wie dem auch sei, wget ist sch... langsam bei den vielen Dateien. Wenn diejenigen (/ihr), die SelfHTML pflegen, was weis ich mal ein Serverscript bauen, was die ganze Angelegenheit automatisch einmal pro Woche nachts oder so zipt und auf einem der vielen Mirrors online stellt, würde man glaube ich nicht nur mir ne kleine Freude/Erleichterung machen/schenken.
So weit
Sebastian
Hallo Sebastian,
Wenn diejenigen (/ihr), die SelfHTML pflegen, was weis ich mal ein Serverscript bauen, was die ganze Angelegenheit automatisch einmal pro Woche nachts oder so zipt und auf einem der vielen Mirrors online stellt, würde man glaube ich nicht nur mir ne kleine Freude/Erleichterung machen/schenken.
Das hielte ich nicht für sinnvoll, da es regelmäßig Aktualisierungen gibt.
Ich kann dir aber anbieten, alle Feature-Artikel und Tipps&Tricks-Beiträge per E-Mail zu schicken.
Grüße
Roland
Hi Orlando,
Ich kann dir aber anbieten, alle Feature-Artikel und Tipps&Tricks-Beiträge per E-Mail zu schicken.
Was spricht dagegen, den Vorgang des Packes, den du das jetzt machen würdest, immer automatisch (wie vorgeschlagen einmal die Woche oder so) machen lassen würde und die Datei dann zum Download zur Verfügung stellt? Den Argument mit den Aktualisierungen verstehe ich nicht, genau wegen der Aktualisierungen soll doch immer alle Woche das gepackte Archiv erneuert werden?!
MfG, Dennis.
Hallo Dennis,
Was spricht dagegen, den Vorgang des Packes, den du das jetzt machen würdest, immer automatisch (wie vorgeschlagen einmal die Woche oder so) machen lassen würde und die Datei dann zum Download zur Verfügung stellt? Den Argument mit den Aktualisierungen verstehe ich nicht, genau wegen der Aktualisierungen soll doch immer alle Woche das gepackte Archiv erneuert werden?!
Aktualisierungen erfolgen nicht wöchentlich, sondern in unregelmäßigen Intervallen. Das Archiv wäre also fast immer veraltet. Da http://aktuell.de.selfhtml.org/ mittlerweile per SVN administriert wird, könnte man die Erstellung des Archivs allerdings automatisieren. Die Frage ist allerdings, ob das wirklich notwendig ist.
Grüße
Roland
Hallo Dennis
Was spricht dagegen, den Vorgang des Packes, den du das jetzt machen würdest, immer automatisch (wie vorgeschlagen einmal die Woche oder so) machen lassen würde und die Datei dann zum Download zur Verfügung stellt? Den Argument mit den Aktualisierungen verstehe ich nicht, genau wegen der Aktualisierungen soll doch immer alle Woche das gepackte Archiv erneuert werden?!
Gut, und dann?
Wie viele werden sich dann auch einmal pro Woche das ganze Paket downloaden?
Wie viel sinnlosen Traffik würde das erzeugen?
Wenn die Mirrors den Traffik übernehmen sollten, wie kann es organisiert werden,
dass alle Mirrors immer das aktuelle Zip haben?
Wie viele der Mirror-Anbieter wären bereit das jede Woche zu aktualisieren?
Auf Wiederlesen
Detlef
Hallo Detlef,
Wenn die Mirrors den Traffik übernehmen sollten, wie kann es organisiert werden,
dass alle Mirrors immer das aktuelle Zip haben?
Wie viele der Mirror-Anbieter wären bereit das jede Woche zu aktualisieren?
Ach komm, du weißt ganz genau dass ein einfaches CGI-Skript ausreicht - da reicht sogar PHP... ;-)
Für's erste stelle ich mal eine ZIP auf meinen Server, lasse wget soeben rennen.
Bis dann!
Marc Reichelt || http://www.marcreichelt.de/
Sorry, ;-)
Für's erste stelle ich mal eine ZIP auf meinen Server, lasse wget soeben rennen.
http://www.marcreichelt.de/feature_artikel.zip
Befehl: wget -rk --no-parent -nH http://aktuell.de.selfhtml.org/artikel/index.htm
Bis dann!
Marc Reichelt || http://www.marcreichelt.de/
Hallo Marc,
Für's erste stelle ich mal eine ZIP auf meinen Server, lasse wget soeben rennen.
»»http://www.marcreichelt.de/feature_artikel.zip
Würdest du bitte das ZIP von deinem Server entfernen?
Wir wünschen es nicht, dass Feature-Artikel und Tipps und Tricks-Beiträge gezippt und so angeboten werden. Würden wird das wollen, hätten wir das selbst gemacht.
Erstens, diese sind Teil des _online_ Angebotes von SELFHTML und wir wollen vermeiden, dass unzählige gezippte Versionen von Artikel (die durchaus öfters aktualisert/verändert werden) im Internet herumkursieren.
Zweitens, es gibt Artikel die nur auf dem Server funktionieren, weil sie z.B. PHP-Dateien etc. enthalten, die am Server ausgeführt werden. Und drittens, du hast, wie Johannes schon darauf hinwies, nicht mit den Autoren abgesprochen, dass du ihre Artikel so veröffentlichen und verbreiten darfst.
Wenn man einen Artikel für sich lokal abspeichert ist es eine Sache und es ist eine andere, wenn die Artikel gezippt und im Internet angeboten werden ohne das wir dem zustimmten.
Danke für dein Verständnis.
MfG
Thomas J. Sebestyen
Reaktion SELFHTML
Hallo Thomas,
Würdest du bitte das ZIP von deinem Server entfernen?
Alles klar, soeben gelesen und sofort gelöscht.
Da war ich leider ein wenig übereifrig.
Du hast vollkommen Recht, vor allem mit den Autoren hätte das abgeklärt werden müssen. Die Aktualität ist auch nicht zu verachten, ich habe es bei meinem EMFF ja schon selbst erlebt. :-)
Friedenspfeife?
Freundliche Grüße
Marc Reichelt || http://www.marcreichelt.de/
Hallo Marc,
Friedenspfeife?
Natürlich. ;-)
Ich stellte nur unseren Standpunkt in der Frage klar.
Grüße
Thomas
Friedenspfeife?
Natürlich. ;-)
Ich stellte nur unseren Standpunkt in der Frage klar.
Sorry, wenn ich hier so fast heftigen Zoff auslöse. Gottseidank scheinbar geschlichtet :-)
Egal, andere IDEE: Ihr lasst, ich wette mal (steht sicherlich auch irgedwo auf SelfAktuell oder sonstwo anders, bin jetzt aber zu faul zum lesen), das die Tips usw. auf einem Apache laufen. Dem zu Folge KÖNNTET ihr sogar die Homepage, soweit die Autoren mitmachen und die Probs mit den Mirrors geklärt sind, die grundlegende Kunfiguration des Severs quasi mit veröffentlichen. Nicht alles, denn das ist ja eure Sache und schließlich auch irgendwie eure Sicherheit, aber genug, um die evntuell herunterladbaren PHP Scripte lokal auf dem Rechner zum laufen zu bekommen. Das ist zwar kaum nötig, wenn man alle Artikel gut liest (und ohnehin genug Ahnung hat, einen Apache aufzusetzten ;-) ), aber es würde für Vergleiche auf lokaten Maschinen Optionen eröffnen. Eure Tips Seite ist ohne eigenen richtig konfigurierten Server teilweise nicht unbedingt hilfreich, wenn man mit den Dateien experimentieren will, woweit hast du damit glaub ich recht, wenn du sie desswegen nicht zippen willst. Aber ein ConfigFiles Set zum DoItYourSelf überkopieren über die eigenen lokalen löst dieses Prob selbst für blutige Anfänger und schafft Erfolgserlebnisse, die ich als blutiger Anfänger (mit PHP, wenn du es z.B. schon direkt so ansprichtst) vermisst habe (und teilweise vermisse :-| ).
Das hier ist wirklich nur ne IDEE (geht vielleicht n bisschen über die Zip-Datei hinaus), die aber wenigstens eines Gedanken wert wäre. SelfHTML beschäftigt sich zwar mehr mit HTML als mit Servereinrichtung und PHP, obwohl doch Kapitel dazu integriert sind, nur sind die Sachen doch teiweise so eng verwoben, dass sich sowas vielleicht damit auch lohnt?
Hallo Sebastian,
Dem zu Folge KÖNNTET ihr sogar [...] die grundlegende Kunfiguration des Severs quasi mit veröffentlichen.
Das wäre schon fast ein kleines Buch, würde aber kaum jemanden in dieser Hinsicht nutzen, es sei denn man setzt dann einen eigenen Server (keinen PC) ebenso auf.
Den wirklich alten Server und seine Beschreibung findest du noch hier http://aktuell.de.selfhtml.org/artikel/server/self/index.htm wie gesagt, sehr alt, aber einen ungefähren Einblick gewährt der Artikel noch (es wurde nur alles ein wenig komplizierter ;-)).
Das ist zwar kaum nötig, wenn man alle Artikel gut liest (und ohnehin genug Ahnung hat, einen Apache aufzusetzten ;-) ), aber es würde für Vergleiche auf lokaten Maschinen Optionen eröffnen.
httpd.conf in deutscher Sprache - Die Apache-Konfigurationsdatei
»»Eure Tips Seite ist ohne eigenen richtig konfigurierten Server teilweise nicht unbedingt hilfreich, wenn man mit den Dateien experimentieren will,
Und das können wir eben keinem abnehmen.
Aber ein ConfigFiles Set zum DoItYourSelf überkopieren über die eigenen lokalen löst dieses Prob selbst für blutige Anfänger und schafft Erfolgserlebnisse,
Wie gesagt, wir arbeiten hier an (richtigen) Servern, da ist "ein ConfigFiles Set" von uns nutzlos.
Grüße
Thomas
Hallo Marc
Ach komm, du weißt ganz genau dass ein einfaches CGI-Skript ausreicht - da reicht sogar PHP... ;-)
Und?
Auf einen großen Teil der Mirrorserver hat Selfhtml selbst keinen Einfluss.
Jetzt soll also jeder, der einen Mirror zur Verfügung stellt, nicht nur
das Paket hochladen und zur Verfügung stellen, sondern auch noch ein
entsprechendes Script instalieren.
Ein Teil der Mirrors liegt auch auf ganz normalem Webspace, ohne CGI oder PHP,
wo lediglich der Traffik zur Verfügung gestellt wird, der im jeweiligen Paket
enthalten ist, aber im Moment nicht benötigt wird.
Auf Wiederlesen
Detlef
Hallo Marc,
Für's erste stelle ich mal eine ZIP auf meinen Server, lasse wget soeben rennen.
Ähem. Du hast das mit _allen_ Artikelautoren abgeklärt?
Schöne Grüße,
Johannes
Mitleiweile habe ich sie mir geladen, trotzdem danke für den Vorschlag.
Wenn man von vornherein sagt, die Zip ist jeweils bis zu ner Woche alt bricht sich niemand n Bein und du must keine Emails schreiben, oder? ;-)
Noch ein paar mehr Gedanken dazu, die ich gerade hatte:
Das Hauptwerk SelfHTML wird, so weit ich das mitbekomme, auch redigiert und verbessert, und das ständig, und davon gibts (nach ner gewissen Weile) auch auf unzähligen Mirrors ne ZIP, oder? Wo klemmts dann sonst, so was nicht auch für den Rest zu machen? Als Nachschlagewerk eignen sich die Artikel und Tips fast genau so gut. Ehrlich gesagt würde ich sogar das Forumsarchiv z.B. Wochenweise oder 48 h Weise auf diese Art zur Verfügung stellen. Nicht jeder hat ne Flatrate und Leute wie ich durchforsten so was gern mal offline. Ok, wget ist hier ne Option, aber ZIP (oder ACE oder 7Z oder weis der Geier was) senkt erheblich den Traffic vom Server genauso wie von mir, dem armseligen Modemnutzer :-) und kostet, nun ja ok, (nur) ein bisschen mehr Speicherplatz, oder?
Ihn müsstet den Kram noch nicht mal an nen Mirror schicken, sondern nur auf dem SelfHTML Server lagern. So viele von meiner Sorte scheints ja nocht zu geben und packen kann man direkt auf dem Server, oder?
Hallo,
Ihn müsstet den Kram noch nicht mal an nen Mirror schicken, sondern nur auf dem SelfHTML Server lagern. So viele von meiner Sorte scheints ja nocht zu geben und packen kann man direkt auf dem Server, oder?
Schau mal bei den Download-Statistiken.
Meinst du wirklich, es wären sehr viele, die sich die Feature-Artikel und
die Tipps & Tricks nicht auch gleich ziehen würden?
Wer es wirklich will, macht sich die Mühe und holt sie sich mit wget oder
dergleichen. Das macht aber nicht jeder.
Dazu müsste aber auch bedacht werden:
Haben alle Artikel-Autoren einer Veröffentlichung per Download zugestimmt?
Veröffentlichung auf einer Webseite, und eventueller privater Download ist
eventuell noch etwas anderes, als wenn es extra zum Download bereitgestellt
wird oder für einen Buchdruck verwendet wird.
Auf Wiederlesen
Detlef
So viele von meiner Sorte scheints ja nocht zu geben und packen kann man direkt auf dem Server, oder?
Schau mal bei den Download-Statistiken.
Meinst du wirklich, es wären sehr viele, die sich die Feature-Artikel und
die Tipps & Tricks nicht auch gleich ziehen würden?
Asche auf mein Haupt, des dürfte doch mehr Traffic werden, als ich dachte ...
Wer es wirklich will, macht sich die Mühe und holt sie sich mit wget oder
dergleichen. Das macht aber nicht jeder.
Wohl wahr. Aber umgedreht gibts doch Leute, dies machen.
Dazu müsste aber auch bedacht werden:
Haben alle Artikel-Autoren einer Veröffentlichung per Download zugestimmt?
Das dürfte ich kaum wissen ;-) Aber zu klären wäre dies. Probleme dürften wohl Sachen wie z.B. die JavaScript Objekt Bibliotheken verursachen, die man ohnehin ur auf den Seiten der Autoren bekommt.
Veröffentlichung auf einer Webseite, und eventueller privater Download ist
eventuell noch etwas anderes, als wenn es extra zum Download bereitgestellt
wird oder für einen Buchdruck verwendet wird.
Philosophische (Rechtschreibung?) oder rechtliche Frage: Wie groß ist der Unterschied eine Sammlung an HTML, gif, jpg, php ... Dateien via HTTP/FTP und Browser zu laden oder dies gezipt via HTTP/FTP zu laden? Der Vorgang unterscheidet sich kaum.
Man könnte doch auch der Sache mit dem "unkontrolliertem" Downloaden nen Riegel vorschieben, indem man diese Funktionen (vollständige Uips ...) nur registrierten (Foren-) Benutzern anbietet.
(vollständige Uips ...)
Uips = ZIPs
Sorry, ich habs heute abend mit der Tastatur nicht mehr so, werde wohl mal ins Bett gehen müssen :-( Bis morgen ...
Hallo Sebastian,
Das Hauptwerk SelfHTML wird, so weit ich das mitbekomme, auch redigiert und verbessert, und das ständig, und davon gibts (nach ner gewissen Weile) auch auf unzähligen Mirrors ne ZIP, oder?
Ja, zwischen 8.0 und 8.1 lagen allerdings einige Jährchen.
Wo klemmts dann sonst, so was nicht auch für den Rest zu machen? Als Nachschlagewerk eignen sich die Artikel und Tips fast genau so gut.
Ich werde deinen Vorschlag ansprechen.
Ehrlich gesagt würde ich sogar das Forumsarchiv z.B. Wochenweise oder 48 h Weise auf diese Art zur Verfügung stellen. Nicht jeder hat ne Flatrate und Leute wie ich durchforsten so was gern mal offline.
Das halte ich nicht für sinnvoll, du suchst ja im Archiv nur eine Antwort auf deine Frage und liest es nicht vollständig.
Ok, wget ist hier ne Option, aber ZIP (oder ACE oder 7Z oder weis der Geier was) senkt erheblich den Traffic vom Server genauso wie von mir, dem armseligen Modemnutzer :-) und kostet, nun ja ok, (nur) ein bisschen mehr Speicherplatz, oder?
Das ist nicht das Problem, wir sind ganz gut ausgestattet, um es bescheiden zu formulieren. ;-)
Grüße
Roland
Ehrlich gesagt würde ich sogar das Forumsarchiv z.B. Wochenweise oder 48 h Weise auf diese Art zur Verfügung stellen. Nicht jeder hat ne Flatrate und Leute wie ich durchforsten so was gern mal offline.
Das halte ich nicht für sinnvoll, du suchst ja im Archiv nur eine Antwort auf deine Frage und liest es nicht vollständig.
Ich habe durch das Forum wie durch SelfHTML das Handwerk rund um dieses Thema gelern, maßgeblich auch dadurch, das ich anderer Leute Probleme lese, was einem selbst Problemstellungen schafft, die man lösen kann und mit denen man üben kann. Selbst alter Kram, der schon lange im Archiv liegt, eignet sich hervorragend zum Sammel von Erfahrungen, die man hier braucht ... Wobei er sich auch Offline nach eigenen Problemen durchsuchen lässt, womit wir wieder beim Modem wären ;-)
Sebastian
Hallo Sebastian,
Ehrlich gesagt würde ich sogar das Forumsarchiv z.B. Wochenweise oder 48 h Weise auf diese Art zur Verfügung stellen. Nicht jeder hat ne Flatrate und Leute wie ich durchforsten so was gern mal offline. Ok, wget ist hier ne Option, aber ZIP (oder ACE oder 7Z oder weis der Geier was) senkt erheblich den Traffic vom Server genauso wie von mir, dem armseligen Modemnutzer :-) und kostet, nun ja ok, (nur) ein bisschen mehr Speicherplatz, oder?
Dir ist schon bewusst, dass das Archiv inzwischen fast 600 MB groß ist? Willst du das ernsthaft mit einem 56k-Modem runterladen?
Schöne Grüße,
Johannes
Dir ist schon bewusst, dass das Archiv inzwischen fast 600 MB groß ist? Willst du das ernsthaft mit einem 56k-Modem runterladen?
56k -> ca. 16 bis 20 Mb / h
Das ist zwar nicht die Wolke, aber eröffnet doch die Möglichkeit auszugsweiser Downloads (notfalls auch bei jemandem anders zu Gast, der nicht die ganze Zeit wget im Hintergrund haben möchte). Und das, was ich sonst von diesem Fourum in ner Stunde durchforste, ist bei weitem viel weniger ...
Hallo.
Wenn diejenigen (/ihr), die SelfHTML pflegen, was weis ich mal ein Serverscript bauen, was die ganze Angelegenheit automatisch einmal pro Woche nachts oder so zipt und auf einem der vielen Mirrors online stellt, würde man glaube ich nicht nur mir ne kleine Freude/Erleichterung machen/schenken.
Das hielte ich nicht für sinnvoll, da es regelmäßig Aktualisierungen gibt.
Habt ihr schon einmal über einen entsprechenden Newsfeed nachgedacht? Falls ja, mit welchen Argumentationen und welchem Ergebnis?
MfG, at
Hallo at,
Habt ihr schon einmal über einen entsprechenden Newsfeed nachgedacht? Falls ja, mit welchen Argumentationen und welchem Ergebnis?
Nur privat. Aber im Prinzip wäre das nicht schwierig, dank SVN-Verwaltung könnte man das eventuell automatisieren.
Aaaaber: Dir ist klar, daß jeder neue Artikel auch in den SELFHTML News angekündigt wird, die auch einen RSS Feed haben?
Tim
Hallo.
Dir ist klar, daß jeder neue Artikel auch in den SELFHTML News angekündigt wird, die auch einen RSS Feed haben?
Ja, immerhin. Aber aus verständlichen Gründen stehen dort eben nur Anreißer statt der gesamten Artikel.
MfG, at
Hallo Sebastian,
Wie dem auch sei, wget ist sch... langsam bei den vielen Dateien. Wenn diejenigen (/ihr), die SelfHTML pflegen, was weis ich mal ein Serverscript bauen, was die ganze Angelegenheit automatisch einmal pro Woche nachts oder so zipt und auf einem der vielen Mirrors online stellt, würde man glaube ich nicht nur mir ne kleine Freude/Erleichterung machen/schenken.
Ich habe mich mal kurz dieser Aufgabe gewidmet, hat jemand eine Idee mit welcher Option ich wget dazu bringen ausschließlich nur Dateien aus http://aktuell.de.selfhtml.org/artikel/ zu holen?
Bis dann!
Marc Reichelt || http://www.marcreichelt.de/
hallo Marc,
hat jemand eine Idee mit welcher Option ich wget dazu bringen ausschließlich nur Dateien aus http://aktuell.de.selfhtml.org/artikel/ zu holen?
wget -x -r -l 1 http://aktuell.de.selfhtml.org/artikel
Grüße aus Berlin
Christoph S.
hallo,
wget -x -r -l 1 http://aktuell.de.selfhtml.org/artikel
Grmpf, das reicht nicht ganz. Es muß
wget -x -r -l 2 http://aktuell.de.selfhtml.org/artikel
sein. Aber da werden beispielsweise "Unterkapitel" nicht mitgezogen, ich sehe es an meinem Apache-Artikel, der noch ein Unterverzeichnis hat. Außerdem werden noch ein paar weitere Index-Seiten, die gar nicht beabsichtigt waren, geholt. Ohne die Option -l machts aber keinen Sinn.
Und in dem Zusammenhang: gibt es serverseitig eine Technologie, rekursive wget-Anforderungen zu sperren?
Ansonst hilft die Lektüre der manualpage ein wenig weiter
Grüße aus Berlin
Christoph S.
Hallo Christoph,
Und in dem Zusammenhang: gibt es serverseitig eine Technologie, rekursive wget-Anforderungen zu sperren?
Für wget und andere Download-Programme ja, die "Technologie" heißt robots.txt. ;-)
Übrigens lautete der Befehl den ich suchte "--no-parent", siehe mein anderer Post weiter unten.
Bis dann!
Marc Reichelt || http://www.marcreichelt.de/
Hallo Sebastian,
unter Windows habe ich damals den WebReaper verwendet, der lief immer ganz gut. Seit ich Linux verwende, ist wget mein Favorit.
Die Webseite sieht nicht so seriös aus, das Programm hat aber mehr unter der Haube als man ihm zuerst anmerken sollte. Vor allem die Filter-Funktionen sind gut, aber im Vergleich zu wget natürlich auch sehr gering... ;-)
Bis dann!
Marc Reichelt || http://www.marcreichelt.de/
Tag Sebastian.
Ich weiß nicht, ob es schon genannt wurde, aber ich habe unter Windows mit WebStripper gute Erfahrungen gemacht, wenn es dir zusagt, kannst du es nach einer Evaluationsfrist von 30 Tagen kaufen.
Siechfred
kannst du es nach einer Evaluationsfrist von 30 Tagen kaufen.
Nimms mir bitte nicht übel, Softwareentwicklung mag ja Gelt kosten und ein Downloadmanager dieser Sorte mag ja auch was taugen, nur dann müsste ich indirekt Geld für eine eigentliche freie Sache bezahlen und das widersprecht sich meiner Meinung nach ein wenig.
Beste Grüße
Sebastian