gudn tach Christoph!
in der mathematik ist das, was computer (systembedingt) ungenau berechnen, als _fehler_ definiert.
Bei welcher Definition? Bei welchen Axiomen?
das wird, so dachte ich immer, in jeder ersten numerik-vorlesung so gelehrt. bei mir war es jedenfalls so und in den skripten und buechern, die ich zum thema gelesen habe, ebenfalls. (google-stichproben-suche bestaetigt das)
Wer hat gelehrt, welche Skripte, welche Bücher, welche Links?
hmm, also ich denke, dass es schwieriger wird, ein numerik-skript zu finden, welches behauptet, dass beim computergestuetzten rechnen _keine_ fehler auftraeten.
das thema heisst _fehler_analyse (oder auch _fehler_abschaetzung) und ist wohl bestandteil einer jeden numerikvorlesung.
aber na gut:
das erste skriptum, das ich auf meiner festplatte (zufaellig ausgewaehlt) geoeffnet hatte, war eines von 2000 von prof. rannacher in heidelberg (http://numerik.uni-hd.de/~lehre/notes/, seiten 1-6 des nullten skriptes (mittlerweile von 2005))
ich merke gerade, dass einige der skripte, die ich mir mal runtergeladen hatte, wie z.b. das numI-skriptum von herrn trottenberg vom ss 2003 an der uni koeln, nicht mehr online verfuegbar sind.
macht aber nix. google hilft einem da weiter und findet andere:
Wenn dem Rechner gesagt wird, das 1+1=3 ist und er tut das auch, dann ist das wann falsch?
naja, wenn ich zunaechst genau einen apfel habe und danach noch genau einen weiteren apfel bekomme, habe ich anschliessend genau zwei aepfel. nicht aber drei. dem computer wurde also fehlerhaftes rechnen beigebracht, wenn damit z.b. die addition von aepfeln bewerkstelligt werden soll.
und es ist nun mal i.a.r. der fall, dass der computer den menschen bei menschlichen rechenproblemen unterstuetzen soll. da man aber dem computer nicht beibringen kann, gescheit (=so wie der mensch es sich wuenschen wuerde) zu rechnen, bringt man dem computer eben bei, auf eine andere ("eigene") weise zu rechnen, die aber moeglichst nahe noch an der gescheiten sein soll. dabei muss man dann z.b. mit sog. rundungs_fehlern_ leben.
wenn computer keine fehler mehr machen wuerden, waeren einige numeriker ploetzlich arbeitslos. ;-)
Seit wann machen denn Computer Fehler? Ist es nicht stets der Mensch, der die Fehler begeht?
duffdae! war es nicht eigentlich nur die hand des menschen? oder das hirn des menschen? waren es nicht eigentlich die eltern menschen? oder dessen grosseltern...?
computer machen fehler, denn man bringt ihnen bei fehler zu machen;
fehler aus der sicht der mathematik, der physiker, der ingenieure, oder eben kurz: einfach aus der sicht der anwender.
Zudem es tatsächlich möglich ist, auch mit unendlich vielen Zahlen zu rechnen, es ist halt nur nicht mehr so einfach.
nein, das geht mit konventionellen rechnern gar nicht.
Gibt es einen speziellen Grund, das Du das annimmst [...]?
ja.
angenommen es gaebe einen rechner, der mit unendlich vielen zahlen rechnen koennte. dann koennte er auch mit einer zahl rechnen, die groesser ist als die anzahl aller zustaende, die die bits in seinem endlichgrossen speicher annehmen koennten. und das geht nicht.
man kann zwar z.b. bei mathematica eine genauigkeit vorgeben, jedoch erreicht man nicht exakte genauigkeit, sondern nur beliebig hohe.
Man kann in bestimmten, also ebenfalls unendlich vielen Fällen ein exaktes numerisches Ergebnis erzielen.
nein. ich denke, dass nicht mal das geht, und zwar aus dem soeben genannten grund, dass ein computer auch nur endlich viele zahlen kennt.
(und nicht mal _wirklich_ beliebig hohe, weil rechner nur begrenzt viel speicher und begrenzte geschwindigkeit haben)
Speichergröße und Geschwindigkeit sind hier ausnahmsweise einmal nicht relevant, da zumindest die Speichergröße hier willkürlich festgelegt wird und zwar deutlich kleiner als das praktisch Mögliche.
den kausalzusammenhang verstehe ich hier nicht.
die endlichkeit des speichers und die "lahme" geschwindigkeit der prozessoren _ist_ oft ein problem in der numerik.
Apropos Praxis: Um z.B. den Umfang des Universums (runde 2,3651826 * 10^36 Angstrom ) auf ein Angstrom genau auszurechnen -- warum auch immer -- benötigst Du Pi auf gerade mal wieviel Stellen genau?
um das problem knusperklumpens zu loesen, braucht man eventuell mehr stellen als man hat.
Zudem hat die Natur auch ihre eingebauten Grenzen: kleiner als rund 1,6 * 10^-35 Meter geht eh nicht.
Die Genauigkeit ist also so gewählt, das die Statistik nicht wesentlich vom Aktuellem abweicht.
vom praktikablen rechnen mit planck-genauigkeit ist man noch weit(!) entfernt.
prost
seth