Christoph Zurnieden: Problem mit großen Zahlen

Beitrag lesen

Hi,

Wenn dem Rechner gesagt wird, das 1+1=3 ist und er tut das auch, dann ist das wann falsch?

naja, wenn ich zunaechst genau einen apfel habe und danach noch genau einen weiteren apfel bekomme, habe ich anschliessend genau zwei aepfel. nicht aber drei. dem computer wurde also fehlerhaftes rechnen beigebracht, wenn damit z.b. die addition von aepfeln bewerkstelligt werden soll.

Aha, sehr schön.
Und wenn er nicht mit Äpfeln rechnet? Sondern mit einem System, das durch sein Axiomensystem derart definiert ist, das 1+1 tatsächlich 3 ergibt? Ist das dann immer noch falsch?

und es ist nun mal i.a.r. der fall, dass der computer den menschen bei menschlichen rechenproblemen unterstuetzen soll. da man aber dem computer nicht beibringen kann, gescheit (=so wie der mensch es sich wuenschen wuerde) zu rechnen, bringt man dem computer eben bei, auf eine andere ("eigene") weise zu rechnen, die aber moeglichst nahe noch an der gescheiten sein soll. dabei muss man dann z.b. mit sog. rundungs_fehlern_ leben.

Un weil der Mensh nicht in der Lage ist einen rehcner nach seinen Wünschen zu konstruieren, ist der Rechner fehlerhaft und nicht der Mensch?
Wie kommst Du zu dieser Annahme?

Warum wird diesem Umstand eigentlich nicht abgeholfen? Doch nur weil's zu teuer ist, aus keinem anderem Grunde. Dann muß man halt damit leben, das derartige Begrenzungen das direkte Mapping vom Rechner zum Menschen e.v.v. unmöglich machen und nicht einfach dem Rechner die Schuld zuschieben.

angenommen es gaebe einen rechner, der mit unendlich vielen zahlen rechnen koennte. dann koennte er auch mit einer zahl rechnen, die groesser ist als die anzahl aller zustaende, die die bits in seinem endlichgrossen speicher annehmen koennten. und das geht nicht.

Aha, gibt es einen speziellen Grund dafür, das Du dem theoretischem Rechner einfach den Speicher begrenzt? Doch den, das Du so eine passende Definition [sic!] erhältst, die Dein Argument stützen.

Man kann in bestimmten, also ebenfalls unendlich vielen Fällen ein exaktes numerisches Ergebnis erzielen.

nein. ich denke, dass nicht mal das geht, und zwar aus dem soeben genannten grund, dass ein computer auch nur endlich viele zahlen kennt.

Nein, nur _Dein_ Computer ist derartig beschränkt, meiner nicht. Meiner ist einfach nur ein Turingrechner, Deiner ist die Kiste, die man im Laden kaufen kann. Bei mir gibt es verschiedene theoretische Beschränkungen, bei Dir sind es _zusätzlich_ noch welche praktischer Art: Du beschränkst Dich nur auf die direkt bearbeitbaren Größen; "Bignums", Zahlen beliebiger Größe, scheinen für Dich nicht zu existieren.

den kausalzusammenhang verstehe ich hier nicht.
die endlichkeit des speichers und die "lahme" geschwindigkeit der prozessoren _ist_ oft ein problem in der numerik.

Na, ich will nicht hoffen, das die Numerik eine reine Ingenieurswissenschaft ist obwohl es bei Dir den Anschein hat. Das Problem liegt aber wahrscheinlich eh wieder nur in schlecht gewählter Nomenklatur und nicht im Sinn. Was hier als Fehler bezeichnet wird, sind imaginäre Toleranzfelder, die sich aus dem mangelhaftem Mapping zwischen binärem und dezimalem Zahlensystem ergeben zusammen mit der strikten maximalen Größe mit der einige fest eingebaute und daher schnelle Eimer arbeiten können. Schon die Möglichkeit die Last auf mehrere Eimer zu verteilen wird standhaft ignoriert.
Aus diesem Grunde vermehren sich diese Toleranzfelder in Abhängigkeit zur Benutzung o.a. Eimer und ein anschließendes Mapping in Dezimalzahlen ergibt eine Differenz, die hier als Fehler bezeichnet wird.

Apropos Praxis: Um z.B. den Umfang des Universums (runde 2,3651826 * 10^36 Angstrom )

*grummel*
Das muß natürlich
(Durchmesser runde 2,3651826 * 10^36 Angstrom )
heißen, sorry.

auf ein Angstrom genau auszurechnen -- warum auch immer -- benötigst Du Pi auf gerade mal wieviel Stellen genau?

um das problem knusperklumpens zu loesen, braucht man eventuell mehr stellen als man hat.

Weiß ja nicht, aber ich käme auf gerade mal 41 Stellen ;-)
(3.141592653589793238462643383279502884197(169399))

Zudem hat die Natur auch ihre eingebauten Grenzen: kleiner als rund 1,6 * 10^-35 Meter geht eh nicht.
Die Genauigkeit ist also so gewählt, das die Statistik nicht wesentlich vom Aktuellem abweicht.

vom praktikablen rechnen mit planck-genauigkeit ist man noch weit(!) entfernt.

Wirklich noch _so_ weit?
1.6 * 10^-35
0,000000000000000000000000000000000016
2^-128
0,00000000000000000000000000000000000000293873587705571876992184134305\ 561419454666389193021880377187926569604314863681793212890625

Also ich finde, so viel ist das gar nicht mehr, die doppelte Genauigkeit derzeitiger 64-Bit Rechner kommt da doch schon sehr nah dran, findest Du nicht?

so short

Christoph Zurnieden