gudn tach Christoph!
Du definierst "Rechner" so lange um, bis es Dir in den Kram paßt. Das ist aber, trotz meiner Wortwahl durchaus legitim. Nur solltest Du auch akzeptieren, das das andere auch tun können und auf nichts anderes wollte ich Dich hinweisen: "Fehler" ist eine Definitionsfrage.
ich definiere das wort nicht staendig um, sondern versuchte mich in diesem thread permanent auf Knusperklumpens aussage und dein "nein" zu beziehen.
klar sind begrifflichkeiten definitionssache, aber eben auch eine sache der konvention. es darf sich da nicht jeder sein eigenes sueppchen kochen, wenn er vernuenftig mit anderen leuten kommunizieren will.
und es ist nun mal schon lange ueblich die abweichungen, die beim computergestuetzten rechnen auftreten, als fehler zu bezeichnen.
ein fehler ist (auch laut duden) nicht notwendig eine eigenschaft, die einem menschen zugeschrieben werden muss.
achtung! sethsche metapher:
wenn man ein kaputtes telefon kauft, dann sagt man "das telefon ist kaputt" oder "das telefon funktioniert nicht" und nicht jedes mal "in der produktionskette dieses telefonapparates hat wahrscheinlich jemand einen fehler gemacht".Dieses Telephon wurde unter der Annahme erworben, das man damit telephonieren kann. Kann man das nicht ist umgangssprachlich das Telephon fehlerhaft. Rechtlich gesehen hat das Produkt nicht die zugesagten Eigenschaften.
na, aber hallo: ProdHaftG § 3 Fehler
wohlgemerkt geht's mir in diesem beispiel nicht um computer, sondern darum, dass man auch nicht-selbstdenkenden dingen fehler zuschreibt.
Warum wird diesem Umstand eigentlich nicht abgeholfen? Doch nur weil's zu teuer ist, aus keinem anderem Grunde.
zu "teuer" in welchem sinne?
Hier ausnahmsweise mal im finanziellem Sinn.
wie schon mehrfach gesagt, liegt es nicht nur _daran_, dass solchen ein rechner nicht gebaut wird. ich komme gleich nochmal darauf zu sprechen.
"Bignums", Zahlen beliebiger Größe, scheinen für Dich nicht zu existieren.
fuer mich schon; aber nicht fuer computer (die man bauen kann).
Dann schau mal bei Google nach, da gibt es für viele Sprachen passende Lösungen. Und da jede Logik, die in Hardware implemetiert ist auch in Software zusammengebastelt werden kann e.v.v. muß es auch möglich sein, Bignums in Hardware zu implementieren. Warum wird das nicht gemacht?
den grund nannte ich bereits: die anzahl der zustaende in einem computer ist endlich. um mit unendlich vielen zahlen umgehen zu koennen, braeuchte man jedoch auch unendlich viele zustaende.
Das Problem liegt aber wahrscheinlich eh wieder nur in schlecht gewählter Nomenklatur und nicht im Sinn.
s/schlecht gewählter/der/
dann stimme ich dir zu.Namen werden stets vergeben, die kommen nicht vom Himmel gefallen.
ich finde nicht, dass die nomenklatur schlecht (gewaehlt) ist, weshalb ich das woertchen "schlecht" streichen wollte. und da du selbst sagst, dass nomenklaturen immer gewaehlt werden, waere "gewaehlte nomenklatur" ein pleonasmus, also habe ich diese ersetzung vorgenommen.
Was hier als Fehler bezeichnet wird, sind imaginäre Toleranzfelder, die sich aus dem mangelhaftem Mapping zwischen binärem und dezimalem Zahlensystem ergeben zusammen mit der strikten maximalen Größe mit der einige fest eingebaute und daher schnelle Eimer arbeiten können.
bin mir nicht ganz sicher, was du mit "imaginäre Toleranzfelder" meinst, aber stimme ansonsten zu.
Die letzte Stelle ist stets mit der Toleranz +-1 behaftet.
Die Wahrscheinlichkeiten sind jedoch gleichverteilt, also je 0.5. Bei Dezimalzahlen sind die Wahrscheinlichkeiten jedoch nicht gleichverteilt,
diese beiden letzten zeilen habe ich nicht verstanden.
computer runden zahlen, ok, soweit so gut. aber welche wahrscheinlichkeiten meinst du?
das Toleranzfeld existiert also erst nach der Umwandlung zur Dezimalzahl, ist also während der binären Rechnung nur imaginär. Mit imaginären Werten zu rechnen ist aber auch kein großes Problem.
imaginaer? du meinst damit weder "scheinbar" noch das mathematische imaginaer, oder?
der abgehakte teil einer gerundeten zahl laesst sich jedenfalls fast nie vollstaendig dem computer beibringen.
Schon die Möglichkeit die Last auf mehrere Eimer zu verteilen wird standhaft ignoriert.
¿eimer?
Eimer, engl. Bucket(s). Ein abstraktes Behältnis in dem man Daten speichern kann. Der Typ der Daten ist nicht festgelegt, genauso, wie man in einen Eimer auch alles reintun kann, was da reinpaßt.
schon klar, aber ich dachte, du redest mittlerweile auch ueber computer, die man wirklich bauen koennte. bei jenen muesstest du mit eimer also etwas bestimmtes meinen. den speicher und die cpu nicht (weil da nutzt man ja bereits mehrere von), also was denn dann?
Wirklich noch _so_ weit? [...]
Also ich finde, so viel ist das gar nicht mehr, die doppelte Genauigkeit derzeitiger 64-Bit Rechner kommt da doch schon sehr nah dran, findest Du nicht?bei realen zu berechnenden numerischen problemen bekommt man nicht diese genauigkeit hin, da sich fehler ja mit jeder operation steigern koennen.
Mit ein wenig Geschick bekommt man es aber so hin, das die Luft bei 128 Bit Genauigkeit vollkommen ausreicht. Man muß nur dafür sorgen, das sich die Wahrscheinlichkeiten überall zumindest halbwegs aufheben. Wie man das macht können Dir dann die Numerologen, pardon Numeriker sagen. Zumindest hoffe ich das.
(numerik mit numerologie zu verwechseln, ist noch uebler als eine verwechslung von chemie und alchemie.)
nein, auch 128 bit helfen nur bei ein paar wenigen problemen. allerdings kommen hier jetzt ganz andere probleme eher zum tragen, naemlich dass man bei vielen problemstellungen gar nicht die zeit haette, sehr genau zu rechnen, weil die rechner viel zu lahm sind. aber das fuehrt - wie gesagt - imho zu weit vom thema ab.
aber das fuehrt zu weit von dem weg, was Knusperklumpens ansprach.
Ich befürchte, _da_ sind wir schon meilenweit von entfernt ;-)
ich bin der meinung, gar nicht so weit davon abgerueckt zu sein.
prost
seth