Hi,
genaugenommen ist es _korrekt_, dass computer (derzeit) sich _verrechnen_.
Nein, niemand verrechnet sich, es ist bei der Mathematik immer eine Frage der Definition [...]
in der mathematik ist das, was computer (systembedingt) ungenau berechnen, als _fehler_ definiert.
Bei welcher Definition? Bei welchen Axiomen?
[...] ist aber bei numerischen Berechnungen mit dem Computer _sehr_ wichtig!
ja, stabilitaets- und FEHLERanalysen machen einen enorm grossen teil der numerik aus. ;-p
Und das führte dazu, das man sich zusammensetzte und in mühseligem Kleinkrieg, pardon Kleinarbeit einen Standard zusammengehauen hat. Alles, was sich danach verhält ist verhält sich innerhalb dieser Definition fehlerfrei. Erst wenn Du aus dieser Defintion raustrittst, sie also änderst kann es zu Fehlverhalten kommen, dann kommt z.B. aus der Rechnung 1/10 etwas unpassendes heraus, wenn man z.B. das Dezimalsystem und |R zur Grundlage nimmt, jedoch im Binärsystem rechnet. IEEE grenzt hier die Genauigkeit willkürlich aber exakt ein: sie wird also definiert. "Genauigkeit" ist hier als Ausdruck ein wenig mißlungen, da auch Genauigkeit natürlich eine Frage der Definition ist.
Diese Einschränkung hat ihren Gewinn in der Geschwindigkeit und aufgrund des zweiten themodynamischen Hautptsatzes ...
Und außerdem: numerische Mathematik ist eh das schwarze Schaf der Mathematik ;-)
klar: ein konventioneller computer haelt sich an die regeln, die man ihm vorgibt. er _rechnet_ also auch nach den regeln, die man ihm vorgibt. trotzdem ist es legitim und ueblich, dem computer ein verrechnen vorzuwerfen, da er nur endlich viele zahlen kennt und deswegen seine ergebnisse fast immer mit einem fehler behaftet sind.
Es mag üblich sein, legitim ist es jedoch noch lange nicht. Zudem es tatsächlich möglich ist, auch mit unendlich vielen Zahlen zu rechnen, es ist halt nur nicht mehr so einfach.
Recht einfach ist es jedoch mit beliebig großen (< \infty) Zahlen zu arbeiten, da kann man sogar unter verschiedenen vorgefertigten Paketen wählen, das muß man also noch nicht einmal mehr selber basteln.
Mmh ... aber eine Bignum-Bibliothek in Javascript habe ich auf die Schnelle auch nicht gefunden. (nein, eine richtige, nicht die komischen Beispieldinger, die Du jetzt gerade auflisten wolltest, die habe ich auch gefunden ;-)
so short
Christoph Zurnieden