Was ist der Unterschied zwischen Unicode und ASCII?

1 Antwort

Vom Fragesteller als hilfreich ausgezeichnet

Bei ASCII wird jeder Buchstabe mit einem Byte gespeichert und es gibt nur 128 verschiedene Zeichen (inklusive Steuerzeichen, wie z.B. CR "Carriage Return"und LF "Line Feed", womit eine neue Zeile angefangen wird), aber ohne Sonderzeichen, wie z.B. unsere Umlaute. Die werden dann nochmal extra in ANSI Codepages gespeichert, wo es für jedes Land eine eigene gibt. Deshalb gab es früher auch öfter mal den Fall, dass statt Umlauten irgendwelche komischen Zeichen angezeigt wurden.

Bei Unicode wird jeder Buchstabe mit zwei Byte gespeichert. Dadurch gibt es Platz für 65.536 verschiedene Zeichen. Da sind dann z.B. Zeichen in anderen Sprachen dabei (chinesisch, russisch, arabisch etc.) und z.B. Smileys, mathematische Zeichen, Symbole etc. Alles mögliche eben. Und alles ist eindeutig adressiert und kann nicht versehentlich wegen einer falschen Codepage falsch angezeigt werden.

Jetzt wo ich diese Frage wieder sehe: Heutzutage wird statt Unicode sehr oft UTF-8 genommen. Das ist ein Format, bei dem die Zeichen mit unterschiedlich vielen Bytes codiert werden. Soweit ich weiß sind zwischen 1 und 4 Bytes pro Zeichen möglich. Die 127 Zeichen aus dem Ascii-Zeichensatz werden bei UTF-8 genauso gespeichert. Da auf den meisten Webseiten zu über 95% Zeichen aus dem Ascii-Satz gespeichert sind, kann man dadurch im Vergleich zu Unicode viel Speicherplatz sparen.

0

Warum hätte man dem ASCII System nicht einfach mehr Bit geben können? Dann hätten doch sowohl ASCII als auch Unicode bei 16 Bit ca 65.000 Möglichkeiten Zeichen zu speichern.

0
@JuliusAMP

Einerseits steht das A bei ASCII für "American", was bedeutet, dass in erster Linie nur die Zeichen relevant sind, die in der englischen Sprache benutzt werden, andererseits wurde der der Code 1963 definiert. Damals war Arbeitsspeicher noch so knapp und so teuer, dass sogar die 7 Bit, die man für ASCII braucht schon sehr großzügig waren.

Auf Wikipedia steht, dass in der Zeit zwischen 1955 und 1975 hauptsächlich Magnetkernspeicher benutzt wurden und die Kosten in der Zeit von 1$ pro bit auf einen Cent pro bit gefallen sind. Du kannst also davon ausgehen, wass wir 1963 etwa bei 10 Cent pro Bit sind. Ein Speicher, der groß genug ist, um nur diesen einen Kommentar zu speichern, hat damals also schon 81$ gekostet. Wenn man 16 Bit pro Zeichen genommen hätte, wäre es schon doppelt so viel gewesen.

0