hi,
doch, das ist ganz bestimmt richtig. HTML basiert grundsätzlich auf Unicode (merke: Unicode, nicht UTF-8!). Damit ist es naheliegend, wenn nicht gar zwangsläufig, dass ein Browser alle HTML-Inhalte (vermutlich sogar *alle* Textinhalte, auch JS oder CSS), die er bekommt, intern in Unicode vorhält.
Hmm, interessant. Glaube ich aber nicht. Meine Interpretation sieht entsprechend anders aus:
Der Browser wurde mit einem ISO-Header angewiesen, jedes Zeichen als eine Folge von 8 Bit zu betrachten. Nun kriegt er eine Bitfolge mit 24 Bit: E2.82.AC
Der Browser 'denkt' aufgrund des Headers, dass das drei einzelne Zeichen sind und stellt die dar als drei Zeichen xE2, x82 und AC. Genauso siehts nämlich aus, beim Euro sehe ich drei Zeichen.
* In der Umschlüsselungstabelle für Windows-1252 steht, dass 0x82 dem
Unicode-Zeichen U+201A entspricht
CP 1252 geht bis 255, also FF (8 Bit).
* Browser speichert intern das Zeichen U+201A.
Warum sollte ein Browser das tun?
Warum hast du dann Skrupel, das ebenso zu machen?
Warum sollte ich son Blödsinn nachmachen ;-)
Hotti