Das mit dem Bit ist mir soweit kein Geheimnis: da reden welche Über kleine, kleinste Häppchen von Informationen, schon ist “bit” im Gespräch. Daß man dann auch noch “binary information digit” draufkleben kann, macht die Sache rund. Allerdings:ich glaube nicht, daß der alte Konrad, der ja, wie es allgemein heißt, den ersten funktionierenden Computer gezimmert hat, darüber dachte …?
Aber das Byte á 8 Bit ist quasi eine Neuländer-Erfindung. Einfach mal bei C&R nachsehen. Oder darüber nachdenken, wieso es irgendwann mittendrin zumindest manche Compiler-Hersteller für angebracht hielten, neben z. B. einem char auch ein byte, ein char8 oder ähnliche Konstruktionen vorzusehen. Denn C&R sahen ihr Konstrukt klar als der gerade verwendeten CPU auf den Leib geschneidert an: deren Byte aka char ist die kleinste Menge Bits, welche die CPU anfassen kann, ohne andere Speicher(bereiche) zu belästigen.
Der Rest der Gesichte ist dann „selbsterfüllende Prophezeihung“: 8-Bit-CPUs wurden mit den Büromaschinen beliebt: sie können gerade ein Stück TTY-Sprache, 7 Bit ASCII mit Markierung „ich bin ein Zeichen/Leelauf“ (genau: TTY!) handhaben. Also: gut geeignet, um „Schreibmaschinen“ zu … bauen? … programmieren?
Daß dann so ein Oktett auch noch zwei BCD-Ziffern aufnehmen kann, störte dabei auch nicht. Und beim Adressieren? Na, da packen wir doch einfach mal ein long vors int …
Ah, stimmt: auch das int war nicht so genau festgelegt. sizeof(char) ≤ sizeof(int) ≤ sizeof(long), mehr war da nicht definiert. Aber wenn wir jetzt schon mal mit 8-Bit-Maschinen angefangen haben und die digital vergrößern, aus 8 16, dann 32 Bit machen usw. … wer soll sich dann noch für was anderes interessieren? Reichen nicht die Schlachten um die nächste Bezeichnung für … hmmm, 256-Bit-Ähhh… Dingens? (Zumindest GPUs sind da dran, wenigstens nahe dran.)