Ascii code?

2 Antworten

Führende Nullen mitzuschreiben, ist nicht notwendig, aber sinnvoll.

Der ASCII-Code ist ursprünglich ein 7-Bit-Code, der in Lochstreifen gestanzt wurde. Die Lochstreifen hatten 8 Lochreihen, die achte Reihe enthielt ein Prüfbit (Parität) zur Erkennung von Fehlern. Als man von Lochstreifen abkam, konnte man das achte Bit z.B. für die Darstellung von Umlauten verwenden. (Die gab es im 7-Bit-Code nicht.)

Nun hat der "neue" ASCII-Code acht Bit je Zeichen. Es hat sich eingebürgert, immer alle acht Bits aufzuschreiben, sinnvoll auch als zwei Hexadezimalziffern. Es hat sich auch eingebürgert, eine Gruppe von acht Bits (ein Oktett) als Byte zu bezeichnen.


Leasophie630 
Fragesteller
 29.01.2024, 21:17

Also wenn ich richtig verstanden habe sind 8 -Bits sinnvoller weil es genauer ist? Oder nur weil es sich eingebürgert hat

0
tunik123  30.01.2024, 08:14
@Leasophie630

Ursprünglich war ASCII ein 7-Bit-Code, der alle Zeichen, die in den USA verwendet werden, darsdtellen kann.

Das achte Bit diente als Paritätsbit. Es musste immer eine ungerade Anzahl 1-Bits (d.h. Löcher im Lochstreifen) vorkommen. Daran erkennt man, ob ein Loch fehlt oder zu viel ist. Auch erkennt man damit, wann der Lochstreifen zu Ende ist.

Später hat man das achte Bit benutzt, um zusätzliche Zeichen (z.B. Umlaute) zu codieren. (Da waren keine Lochstreifen mehr üblich.)

2

Die ASCII-Codierung bietet keine Möglichkeit zu erkennen, wo eine Zahl aufhört und eine neue beginnt. Man muss es anderweitig wissen. Ursprünglich war ASCII auf 7 Bit definiert, heutzutage werden 8 Bit (=1Byte) verwendet. Jedes Zeichen ist mit 1 Byte gleich groß, somit lässt sich leicht bestimmen, wo ein Zeichen beginnt und endet.

Alternativen wäre z.B. UTF8, wo ein Zeichen zwischen 1 und 4 Byte sein kann - dabei werden einige Bits innerhalb der Bytes dazu verwendet, um zu codieren wozu das Byte gehört.

Eine Form der Kodierung, die sich nicht an Vielfache von Byte-Grenzen hält, wäre z.B. Huffman-Codierung, ein Kompressionsverfahren.