Hallo,
Die Grundeinheit _ist_ definiert: 1 Bit.
Aber schon die Größe der Informationsmenge ist architekturspezifisch. Ist zwar auf der heutzutage erhältlichen Hardware stets 2, aber die Größe kann theoretisch bis unendlich gehen.Jetzt wird's metaphysisch.
Nein, mathematisch.
Ein bit ist definiert als binary digit.
Wo bitte?
Das heißt eine Stelle im binären oder dualen Zahlensystem. In diesem Zahlensystem kann jede Stelle zwei, und genau zwei, Ziffern annehmen 0 oder 1. Die Informationsmenge, die damit zu speichern ist, beträgt 1 bit. Diese Einheit entspricht der kleinsten Informationsmenge, die überhaupt existieren kann (Elementarinformation). Sie besteht in einer einzelnen "Ja-Nein-Aussage".
Auch das ist rein architekturspezifisch.
Auf einem System, das {ja, eher ja, vielleicht, eher nein, nein} kennt, ist die kleinste Informationsmenge auch ein Bit, kann in desem Fall allerdings nicht mehr binär dargestellt werden.
Welche Informationsmenge 2 meinst Du?
Wie soll 1 bit eine unendliche Informationsmenge speichern können?
Unendlich wird die Informationsmenge in einem Bit, wenn sogenannte "Quantenrechner" in's Spiel kommen. Dann gilt:
(x sei eine Information und X die Menge der in einem Bit darstellbaren Information.
In einem Binärsystem wäre X={0,1} und x\inX)
Die Wahrscheinlichkeit P eines Ereignisses a ist definiert als 0<=P(a)<=1, wobei 0="kein Ereignis" und 1="auf jeden Fall ein Ereigniss" ist.
\forall P(a) \exist x \in \Bbd{R} (x | 0 \leq x \leq 1) für x = P(a)
(Das ist formal nicht ganz korrekt, wer es komplet weiß möge es posten aber an die 12k Grenze eines Postings denken;-)
Wieviele Werte kann x annehmen? Unendlich viele, oder?
so short
Christoph Zurnieden