hallo again phanty,
... wenn ein eintrag 50 % chance hat und ein eintrag 0.01 % chance hat
ausgewählt zu werden, wären das nicht mehrer 100k, sondern 500m einträge
...
ich glaub', da liegst Du um den faktor 100 daneben - 5 millionen kaemen
aber auf basis der von Dir geschilderten ausgangslage (500.000 voneinander
verschiedene eintraege) schon zusammen.
gegeben seien die eintraege "foo" mit einer gewichtung von 0.01 sowie
"bar" mit einer gewichtung von 50.
der von mir vorgeschlagene ansatz kaeme auf eine loesung mit insgesamt
10.000 eintraegen bei einmaligem vorkommen von "foo" und genau 5.000
eintragen von "bar" - 4.999 eintraege liegen jetzt erstmal brach.
schon bei 100.000 voneinander verschiedenen eintragen laege die ideale
natuerliche gewichtung jedes einzelnen elements bei 0.001 - um dort
auf 0.01 fuer nur ein einziges dieser elemente zu kommen benoetigte
der loesungsvorschlag tatsaechlich 100 identische eintraege auf einer
million gesamteintrage - ABER: die noch nicht angepasste gewichtung
aller anderen elemente waere aus praktischer sicht jetzt schon extrem
verschoben - die chance, eines dieser elemente zu ziehen laege jetzt
bei eins zu einer million.
wer macht denn sowas?
UND: die summe _aller_ gewichtungen muss doch hoffentlich immer 100 ergeben.
neugierig fragend zurueckbleibend - peterS. - pseliger@gmx.net
»Because objects in JavaScript are so flexible, you will want to think differently about class hierarchies.
Deep hierarchies are inappropriate. Shallow hierarchies are efficient and expressive.« - Douglas Crockford
ie:( fl:) br:> va:( ls:& fo:) rl:) n3;} n4:} ss:} de:µ js:} mo:? zu:]