Ludger: Zeichenkodierung: ISO ... vs. Unicode

Beitrag lesen

Hi,

achso, zur Sache.

Unicode ist ein Code und ein Code ist eine Kodierung.

Sehr .. äh .. phantasievoll.

Nicht fantasievoll, sondern richtig.

(Merke: Ich nutze hier den Begriff Kodierung wie jeder andere in dem Bereich, nämlich die Umwandlung eines Code Points im Zeichensatz in tatsächliche Kette von Bits.)

Formulierungen wie "jeder andere" rutschen mir den Buckel herunter. Ich empfehle stattdessen ein "Alle wissen..." oder ein "Haben wir schon immer so gemacht".

Ich kodiere nun seit 26 Jahren und ich weiss was kodieren bedeutet und zwar - man lausche - die Nachbildung einer gegebenen realen Struktur oder eines realen Objektzugriffs "in IT". Wir haben naemlich auf der einen Seite die Realitaet und auf der anderen Seite die IT auf einem in der Realitaet stehenden System nachgebildet. Den Uebersetzungsvorgang "Realitaet->IT" nennt man Kodierung, den Vorgang "IT->Realitaet" Abstraktion. Auf der einen Seite (Realitaet) steht die Information, auf der anderen Seite ("IT") stehen die Daten.

Ich hab's ja nicht geschrieben, Christian war das. An Deiner Texterfassung solltest Du noch etwas arbeiten. ;)

Obs der Max oder der Moritz macht ...

Er schrieb, dass seine Charset-Routine einen Haufen Zeichen bekommt, mit dem Ziel die in eine Kodierung umzuwandeln. Wenn ein Zeichen dann nicht in der Zielkodierung enthalten ist, wird es in das dazugehörige HTML-Entity in numerischer Notation umgewandelt. Ich frag mich immer noch, was Du daran nicht verstanden haben könntest?

Eine Routine bekommt "Zeichen"? Diese werden in eine Kodierung "umgewandelt"? Ne, sorry, da erahne ich zwar was gemeint worden ist, aber blass gucken tue ich dennoch...

Gruss,
Ludger