Hallo,
Oh, zuviel der Ehre. Da waren andere schon vorher dran.
Die erste vage Idee dazu stammt noch von Heisenberg.Ja, ich hab schon verstanden, worauf Du hinaus wolltest. Du hast ja unmissverständlich zu beweisen versucht, dass zwischen zwei definierten Möglichkeiten beliebig viele weitere Möglichkeiten liegen. Mathematisch ausgedrückt, dass zwischen zwei Anfangs- und Endwerten beliebig viele Werte liegen, selbst, wenn man _nur_ im Bereich der rationalen Zahlen bleibt.
Nein, das habe ich nur dargestellt, den Beweis bin ich schuldig geblieben. Hätte auch deutlich den Rahmen gesprengt.
Mein, zugegebenermaßen populärwissenschaftliches, Wissen über Quantensysteme am Beispiel von Elementarteilchen - oder - Wie ich es verstanden habe.
Ein Elementarteilchen befindet sich, solange keine Beobachtung stattfindet, in Superposition. Das bedeutet, es hat keine bestimmten Eigenschaften, oder es hat alle ihm möglichen Eigenschaften.
Das ist nur ein mathematisches Model. Wenn auch ein gutes.
Will man nun die Quanten-Physik für Rechner nutzen, wird man sich also auf _einen_ Aspekt einigen müssen, den man für die Codierung der Information nutzt. Es ist, meiner Meinung nach, schlicht unmöglich _alle_ zu nutzen.
Es ist möglich, die Unschärfe zu umgehen. Das ist experimentell an einem Photonenpärchen bereits nachgewiesen worden. (Artikel kannst Du Dir selber aus der Nature raussuchen, IMHO Mitte letzten Jahres)
Allerdings hatte ich auch nicht vor, die Unschärfe zu umgehen, sondern sie zu nutzen.
Digital oder Analog - Ein nicht ganz ernst gemeinter Diskussionsbeitrag
Mathematisch liegen zwischen zwei rationalen Zahlen immer beliebig viele weitere rationale Zahlen. In der Natur ist aber, seit Plack, bekannt, dass bestimmte Vorgänge eben nicht durchweg analog ablaufen können. In der Kurzform besagt Plancks Strahlungsgesetz, dass Strahlung nicht in beliebigen Mengen abgegebenn werden kann, sondern nur als Vielfaches einer bestimmten Größe. Diese Naturkonstante wurde "Plancksches Wirkungsquantum" genannt.
Es geht darum, das man nicht feiner messen kann, da Zeit und Raum unterhalb einer bestimmten Grenze (Planck-Wheeler) nicht mehr existieren.
(Das Strahlung nur in Form fester Größen abgegeben wird, liegt (in diesem Fall) daran, das die Elektronen in festen Bahnen (besser: enge Wahrscheinlichkeitsverteilung) um den Kern laufen. Warum sie das tun, ist noch nicht sicher bewiesen)
Wenn also die Natur in sich schon digital ist, was hast Du dann gegen schnelle digitale Computer?
Es ist eine Sackgasse. Leider aber die breiteste Straße, mit bunten Blumen bestreut und angenehmer Musik beschallt.
Aus unendlich vielen Möglichkieten schöpfen zu können und sich künstlich nur auf zwei zu beschränken, die auch noch Extremata sind, halte ich für arg beschränkt.
so short
Christoph Zurnieden
PS:
Auch wenn ich es selber benutze und in diesem Posting nicht vorkommt: "Quantencomputer" ist ein extrem mißlungener Ausdruck. Ich weiß ja nicht, welcher "Wissenschafts"-Journalist ihn zuerst benutzte, aber er schien sich nicht so ganz darüber im Klarem gewesen zu sein, das bereits jeder normale Halbleiter auf quantenmechanischen Prinzipien fußt, ergo jeder simple Prozessor schon ein Quantencomputer ist.
CZ