Hi,
Wenn man die Kompression wegläßt und mit minimal perfekten Hashfunktionen udn ausreichnder Filterlänge dafür sorgt, das es kein Doubletten gibt, kann ien Bloomfliter fehlerfrei arbeiten.
Das ist kein Jim Bloom! ;) Du hättest nur noch einen perfekten Hash (bei mehreren müsstest du OR-verknüpfen =Verlust) der pro Hashwert bijektiv auf ein Bit abbildet. Sowas nen ich einfach einen exotischen perfekten Hash.
Nur wäre ein einfaches Array (gar nicht erst ein Hash o.ä. sondern ein simples assoziatives Array) eben genau das: einfach.
Einfach simple oder einfach perfekt für die Aufgabenstellung?
Oder hast Du gar keine Hashtabelle sondern genau so ein Array gemeint?
ich meinte ein Hashes als JS Assoziative Arrays umgesetzt http://de.selfhtml.org/javascript/objekte/array.htm#assoziative_arrays
wobei man nicht jedesmal sowas wie
cache["HTML"]=1 eintragen müßte, das geht mit Literalen bestimmt noch platzsparender.
Aber ich weiß, was Du meinst, ja.
Die Threads werden allerdings in einer Einzeldatei angezeigt, da kann man die Browsersuche nutzen. Ist ja nicht jeder Thread so lang wie der hier z.B.
Mit Browsersuche findest du kaum, ob in _einem_ Posting
3 Stichwörter _überhaupt_ auftauchen!?!
Normalerweise macht man das aber stillschweigend, also direkt über Mail und läßt den Thread leise versterben.
Dann hätte aber kein stiller Mit(l)esser ne Chance zu protestiern.
Gut, so einen kleinen Sverer, der auf einem Socket lauscht, mit Latex/AMS-TeX formatierte Snippets annimmt und PNGs zurückgibt hatte ich auch mal im Auge, aber TeX ist leider recht teuer in der Ausführung.
Bei mir ohne PNGs :), möchtest du PNGs würd ich LAtex2html oder t4ht empfehlen...
Ja, genau. Ich versuch's ja auch immer ohne, aber wie hätte ich z.B. in dürren Worten die Funktionsfähigkeit der Entropieverbesserung bei Pseudozufallsgeneratoren durch regelmäßigen, durch XOR verknüpftem Seed mit echtem Zufall beweist?
schluck, ok ich schaus mir also doch mal an ... ;)
- Was wäre aber wenn viel mehr "automatisierte" Abfragen realisieren wollte?
Auha, jetzt geht's auf die Luxuschiene, jetzt wird der Champagner (Millesime!) kaltgestellt und weißer Trüffel über die Butternudeln gehobelt ;-)
für mich kein Alk bitte!
z.B.
a) bei jedem neuen Posting werden User auf vergleichbare Posts im Archiv hingewiesen.Kategorisierung, gut das können Spamfilter erledigen.
kommt auf den Spamfilter an, aber ja sowas meinte ich hier.
b) Oder beim Blättern in Selfhtml-Tutorial werden automatisch alle Postings gelistet die sich auf einen bestimmten Paragraphen beziehen?
Fällt bei Implementation von a) automatisch mit ab.
mit Beziehen meinte ich es gibt einen Link zum betreffenden Paragraphen in Selfhtml rein, wie weiter oben in diesem Posting.
b) Posting- Ähnlichkeitssuche wo thematisch verwandte Posts anhand gemeinsamer Wörter gesucht werden.
Fällt das nicht auch unter 1a)?
schon ein komplizierterer Ansatz...
[IMHO c't 19/2003 Textklassifizierung: Sortieren per Software, S.192 ]
Naja, da würde ich mich schon auf profundere Quellen stützen wollen ;-)
Warum, das ist ein Übersichtsartikel der auf profunde Quellen verweist, und mit Grafiken hilft.
c) Google Ranking wo oft mit <> zitierte Postings
weiter oben gelistet werden.Das ist so ganz nackt nicht praktikabel, leider, das verführt zu Mißbrauch oder macht es dadurch zunichte, indem einfach jeder jeden verlinkt (Akademie: "Zitierst Du mich zitier ich dich.")
Hmm, aber, der Aufwand für Googlespaming im Forum steht nicht in einem vernünftigen Verhältnis zum Benefit!
Bei Google gewinnt man Kunden, im Forum hingegen ... Anerkennung??? Wer hätte also etwas davon?
Außerdem könnten die Moderatoren offensichtlich unnötiges Verlinken unterbinden, (sie müssen sowieso jeden Link folgen)
aber ich dreh mich im Kreis http://forum.de.selfhtml.org/archiv/2004/11/t94960/#m577598
Tschau
rolf