Binär-Code ---> Speicherplatz?
Es ist doch so, dass eine Zahl oder ein Zeichen im Binär-Code immer acht Ziffern hat. Eine Ziffer darin ist ein Bit groß, ist dann ein so ein Zeichen oder eine Zahl etc. immer ein Byte groß oder zählt nur die 1 in einem Byte als Bit?
4 Antworten
Es ist doch so, dass eine Zahl oder ein Zeichen im Binär-Code immer acht Ziffern hat
Nein.
Eine Ziffer darin ist ein Bit groß
Nein
ist dann ein so ein Zeichen oder eine Zahl etc. immer ein Byte groß oder zählt nur die 1 in einem Byte als Bit?
Nein
Du solltest dich mit Encoding beschäftigen. Aktuell ist UTF-8 Das gängigste, gibt aber auch andere wie shift_jis.
Bei UTF-8 sind die meisten Zeichen 1 byte groß, aber komplexe Zeichen können auch 10 Byte und größer sein. Da gibt es ZWJ und ähnliches die mehrere Codepoints zu einem Zeichen machen.
Das kommt drauf an, in welchem Encoding man speichert. UTF8 hat viel mehr Zeichen als ANSI und dadurch können zum Beispiel UTF8 Zeichen mehr verbrauchen, als ANSI Zeichen
Zu Ersten stimmt das nicht. In den erweiterten Zeichensätzen werden mehr Bytes pe Zeichen verwendet. Und für eine Zahl stimmt es schon gar nicht. Wie willst du 6,023 X 10^23 mit acht Bit darstellen? Oder meintest du "Ziffer"? Aber das ist auch nur ein Zeichen.
Und ein Bit ist nicht eine Eins - es ist eine Eins oder eine Null - die kleinstmögliche Informationsmenge - ja/nein, eins - null.
Nein. Du meinst das klassische Byte. Ein Byte ist aus acht Bit.
Ein Bit ist nur 0 oder 1.
Man kann aber auch ein Paket aus 16 oder 32 Bit bilden.
Ja. Der Text in sich selbst.
Aber man könnte mit einer anderen Speicherform mehr Bytes benutzen.
Das würde heißen, dass der Satz "Hallo Welt!" in einer Ascii Tabelle umgewandelt, 11 Byte hätte?