Unterschied zwischen - Asciii, Unicode und UTF-8?
Hab schon zig Seiten durch, dennoch verstehe ich den Unterschied zwischen ASCIII, Unicode und UTF-8 nicht.
ich weiß, dass ascii ein 7-Bit System benutzt bestehend aus dem englischen Alphabet aber wie genau steht es im Unterschied zu Unicode ? Wie werden da die Zeichen gespeichert?
4 Antworten
Unicode ist ein Standard, der jedem Zeichen eine Codenummer und verschiedene Attribute zuordnet.
UTF-8 ist ein Standard, mit dem jedes Unicode-Zeichen als Folge von ein bis vier Bytes codiert wird. Es gibt andere Standards, die Ähnliches leisten, aber ein anderes Codierschema benutzen, z.B. UTF-16 (zwei oder vier Bytes pro Zeichen)..
US-ASCII ist ein veralteter Standard, mit dem ein kleiner Teil der Unicode-Zeichen als jeweils 1 Byte (von dem nur 7 bit genutzt wurden) codiert wurde. Es gibt verschiedene Erweiterungen davon (z.B. Latin-1, Latin-2 etc), die ein paar Zeichen mehr halten können, aber auch weit davon entfernt sind, alle Unicode-Zeichen darzustellen.
ASCII ist der Amerikanische Standard Code for Information Interchange , 8Bit computer haben halt auch ein 8Bit Zeichensatz . So das man Daten austauschen kann .
Da man aber irgendwie nicht nur Computer im Englischen nutzt brauch man halt auch Zeichensätze aller anderen Länder .
Also hat man das erweitert . Bzw viele andere Zeichensätze generiert . Da gibts eine ganze Liste .
Dann hat man gemerkt, das das komplett nervig ist, wenn man so viele einzelne Zeichensätze haben muss , also macht man ein universellen standard wo die meisten Zeichensätze vereint werden .
Unicode = Universal Code ... also universell für alles mögliche norm codiert
UTF-8 ist der kleinste und beinhaltet schon mal das meiste was es so an Zeichen etc gibt . das würde dann immer mehr erweitert , bis auch die asiatisschen alle drinne sind und noch viel viel mehr .
so kann man schön programme schreiben für die ganze welt .
das sind einfach verschiedene "Code Tabellen" in denen Zeichen verschlüsselt sind.
In Unicode hast du beispielsweise 8 Bit, 16 Bit, 24 Bit oder 32 Bit, ergänzt durch führende Nullen, welche als ein Zeichen zählen, bei ASCII 7 Bit. Utf-8 und 16 sind beide Teilbereiche des Unicode
hast du keine suchmaschine , hallo , einfach mal suchen , jede suchmaschine gibt dir 10000000000 antworten .
ASCII benutzt 7 bit, erweiterter ASCII 8 bit (häufig auch ANSI genannt). Damit sind jedoch nur 256 Zeichen möglich.
Unicode besteht aus 2 Byte, also 16Bit, was 65536 verschiedene Zeichen ermöglicht. Damit reicht Unicode für die Darstellung verschiedener Schriften (Latein, Kyrillisch ... bis zu unterschiedlichen chinesischen Zeichensätzen aus). Nachteil von Unicode ist, dass Text jetzt automatisch doppelt soviel Platz benötigt. Da man auch bei Unicode bereits an die Grenzen stößt (Die Welt kennt mehr als nur 65536 Schriftzeichen), gibt es verschiedene Unicode-Varianten (UTF8 ist die bei uns am meisten genutzte).
Die ersten 256 Zeichen sind in den meisten Varianten die gleichen wie im ANSI-Code.
Danke jetzt ergibt es Sinn. Und was bedeutet Ansi ?