Hi,
in der mathematik ist das, was computer (systembedingt) ungenau berechnen, als _fehler_ definiert.
Bei welcher Definition? Bei welchen Axiomen?
das wird, so dachte ich immer, in jeder ersten numerik-vorlesung so gelehrt. bei mir war es jedenfalls so und in den skripten und buechern, die ich zum thema gelesen habe, ebenfalls. (google-stichproben-suche bestaetigt das)
Wer hat gelehrt, welche Skripte, welche Bücher, welche Links?
es ist also deiner meinung nach nicht legitim, dass, wenn fuer einen rechner meinetwegen 10^60 - 10^60 = 10^60 gilt, man das als falsch rechnen bezeichnet?
Das kann ich so nicht sagen, mir fehlen für diesen rechner die Definitionen. Steht es da so, ist es auch richtig.
das ginge naemlich in etwa so:
x=10^60
for(1..10^60) --x
Kann ein korrektes Verhalten sein, ja.
klar rechnet ein computer deterministisch, nach den ihm vorgegebenen regeln. aber in diesen regeln wird bewusst festgelegt, _wie_ der computer (unvermeidbare) fehler machen soll.
Dazu müssen Deine Fehler definiert sein und das Verhalten des Rechners. Da Du beides frei definieren kannst, weiß ich nicht, wie Du da auf allgemeine Fehler kommen kannst, das kann ich nicht nachvollziehen.
Wenn dem Rechner gesagt wird, das 1+1=3 ist und er tut das auch, dann ist das wann falsch?
aber ein computer rechnet ja nicht fuer sich, sondern fuer den menschen. und der mensch, weiss das der computer fehler macht, bezeichnet sie deswegen auch als fehler und versucht diese einzugrenzen.
Dann ist das auch ein Fehler des Menschen und keines des Rechners.
wenn computer keine fehler mehr machen wuerden, waeren einige numeriker ploetzlich arbeitslos. ;-)
Seit wann machen denn Computer Fehler? Ist es nicht stets der Mensch, der die Fehler begeht?
Zudem es tatsächlich möglich ist, auch mit unendlich vielen Zahlen zu rechnen, es ist halt nur nicht mehr so einfach.
nein, das geht mit konventionellen rechnern gar nicht.
Gibt es einen speziellen Grund, das Du das annimmst oder glaubst Du das nur?
und die quantencomputer sind afaik auch noch nicht soweit.
Die würden sich in dem Fall nicht unterscheiden.
man kann zwar z.b. bei mathematica eine genauigkeit vorgeben, jedoch erreicht man nicht exakte genauigkeit, sondern nur beliebig hohe.
Man kann in bestimmten, also ebenfalls unendlich vielen Fällen ein exaktes numerisches Ergebnis erzielen.
Zudem ist eine Bechreibung einer Zahl mestens genauso gut, wie die Zahl selber, man kann da ganz gut mit rechnen.
(und nicht mal _wirklich_ beliebig hohe, weil rechner nur begrenzt viel speicher und begrenzte geschwindigkeit haben)
Speichergröße und Geschwindigkeit sind hier ausnahmsweise einmal nicht relevant, da zumindest die Speichergröße hier willkürlich festgelegt wird und zwar deutlich kleiner als das praktisch Mögliche.
Apropos Praxis: numerische Berechnungen werden meistens für phyikalische Zwecke benötigt (sowas esoterisches wie Geld einmal beiseite). Dafür ist die Genauigkeit ausreichend. Um z.B. den Umfang des Universums (runde 2,3651826 * 10^36 Angstrom ) auf ein Angstrom genau auszurechnen -- warum auch immer -- benötigst Du Pi auf gerade mal wieviel Stellen genau?
Zudem hat die Natur auch ihre eingebauten Grenzen: kleiner als rund 1,6 * 10^-35 Meter geht eh nicht.
Die Genauigkeit ist also so gewählt, das die Statistik nicht wesentlich vom Aktuellem abweicht.
so short
Christoph Zurnieden