seth: Problem mit großen Zahlen

Beitrag lesen

gudn tach Christoph!

in der mathematik ist das, was computer (systembedingt) ungenau berechnen, als _fehler_ definiert.

Bei welcher Definition? Bei welchen Axiomen?

das wird, so dachte ich immer, in jeder ersten numerik-vorlesung so gelehrt. bei mir war es jedenfalls so und in den skripten und buechern, die ich zum thema gelesen habe, ebenfalls. (google-stichproben-suche bestaetigt das)

klar: ein konventioneller computer haelt sich an die regeln, die man ihm vorgibt. er _rechnet_ also auch nach den regeln, die man ihm vorgibt. trotzdem ist es legitim und ueblich, dem computer ein verrechnen vorzuwerfen, da er nur endlich viele zahlen kennt und deswegen seine ergebnisse fast immer mit einem fehler behaftet sind.

Es mag üblich sein, legitim ist es jedoch noch lange nicht.

es ist also deiner meinung nach nicht legitim, dass, wenn fuer einen rechner meinetwegen 10^60 - 10^60 = 10^60 gilt, man das als falsch rechnen bezeichnet?
das ginge naemlich in etwa so:
x=10^60
for(1..10^60) --x

um schon mal von mir gesagtes nochmal anders und ausfuehrlicher zu formulieren:
klar rechnet ein computer deterministisch, nach den ihm vorgegebenen regeln. aber in diesen regeln wird bewusst festgelegt, _wie_ der computer (unvermeidbare) fehler machen soll.
insofern kann man durchaus sagen, dass der computer die ihm vorgegebenen regeln nicht verletzt (wenn er ein bewusstsein haette, wuerde man sagen, er sei sich nicht der schuld bewusst, einen fehler gemacht zu haben).
aber ein computer rechnet ja nicht fuer sich, sondern fuer den menschen. und der mensch, weiss das der computer fehler macht, bezeichnet sie deswegen auch als fehler und versucht diese einzugrenzen.

wenn computer keine fehler mehr machen wuerden, waeren einige numeriker ploetzlich arbeitslos. ;-)

Zudem es tatsächlich möglich ist, auch mit unendlich vielen Zahlen zu rechnen, es ist halt nur nicht mehr so einfach.

nein, das geht mit konventionellen rechnern gar nicht. und die quantencomputer sind afaik auch noch nicht soweit.
man kann zwar z.b. bei mathematica eine genauigkeit vorgeben, jedoch erreicht man nicht exakte genauigkeit, sondern nur beliebig hohe.
(und nicht mal _wirklich_ beliebig hohe, weil rechner nur begrenzt viel speicher und begrenzte geschwindigkeit haben)

prost
seth