Ein char ist ein unsigned 16-Bit integer, wenn ich mich nicht irre.
Das heißt, ich soll eingeben: "blabla[1001010010101101] = ...". Dadurch habe ich irgendwie nicht das erreicht, was ich wollte, oder?
Mnemomik: Man vereinfacht den Code durch ersetzen des "Basic"-Codes, den der Prozessor nur erkennen kann, durch andere Ausdrucksweisen. Dadurch ist man viel besser in der Lage, einen Code zu produzieren, zu warten und zu verstehen. _Bsp_:
"010100110100010101000101000101000" ist schwerer als "MOV DX,AX". Das wiederrum wäre schwerer als "variable = 5". Was wiederrum ein Compiler in der entgegengesetzten Richtung macht: "variable = 5" --> "010100110100010101000101000101000".
Also danke für den Beweis deines Wissens, aber mal davon abgesehen, dass das wohl jeder weiß, der halbwegs ernsthaft programmiert, bringt mich das nicht weiter... Oder sollte ich mich irren??
a ist kein char. 'a' ist ein char. Oder habe ich was flacsh verstanden?
Abstrakted Denken ist im Informatikbereich wichtig. Oder hab ich da was falsch verstanden?
Gruss OLLI
Zwei Dinge sind unendlich, das Universum und die menschliche Dummheit, aber bei dem Universum bin ich mir noch nicht ganz sicher.
Phantasie ist wichtiger als Wissen, denn Wissen ist begrenzt.
[Albert Einstein]