Bits und Bytes?

6 Antworten

Ein Bit ist die kleinste logische Einheit. In gängigen Digitalen Systemen können die nur zwei Zustände annehmen, Strom und kein Strom, Spannung und keine Spannung oder "Eins" und "Null". Mathematisch spricht man hier vom "Binärsystem" weil jede Ziffer nur zwei ("bi") Zustände annehmen kann. Wir Menschen benutzen das Dezimalsystem weil jede Ziffer Zehn ("Dezi") Zustände annehmen kann.

Es gibt Ausnahmen, da währe vor allem das Trinärsystem (Tri = 3), technisch ist es leicht "Plus", "Minus" und "Nichts" zu benutzen. Hier kann also ein Bit drei Zustände (0,1,2) annehmen. Technisch der doppelte Aufwand (Selbe Schaltung noch mal "umgedreht" für Minus), bringt aber nur 50% mehr Informationen pro Bit. Daher nur selten genutzt, fast nur zur Datenübertragung - und da benutzt man dann heutzutage mehr Stufen, also verschiedene Signalstärken, derzeit meistens bis etwa 64 Stufen.

In der Computerwelt ist ein Bit also eine Informationseinheit die zwei Zustände kennt.

Genau wie im Dezimalsystem kann man erweitern. Nutzt man mehrere Ziffern, kann man auch größere Zahlen darstellen. Mit zwei Ziffern kann man Dezimal 100 verschiedene Zahlen darstellen, also 0 bis 99. Im Dezimal, also Zehnersystem bringt jede weitere Ziffer eine verzehnfachung des Zahlenraumes.

Das gleiche gillt auch für das Zweiersystem, also Binärsystem. Nur hier hat man es ja mit 2 zu tun. Jedes weitere Bit verdoppelt also den Zahelnraum.

Mit 2 Bit kann man also 4 verschiedene Zahlen darstellen. Mit 3 Bit 8 Zahlen

1 bit = 2
2 bit = 4
3 bit = 8
4 bit = 16
5 bit = 32
6 bit = 64
7 bit = 128
8 bit = 256
9 bit = 512

und so weiter.

Die ersten Binär arbeitenden Maschinen waren Rechenautomaten. Die arbeiteten im Dezimalsystem, stellten aber ihre dezimalstellen intern binär dar. 3 Bit reichen nicht für 10 mögliche verschiedene Ziffern, also brauchte man 4 Bit.

Zusammenhängende Bits nennt man "Wort". Ein klassischer Taschenrechner hat also eine Wortbreite von 4-Bit. Jede Stelle auf der Anzeige benutzt dann ein eigenes "Wort".

Die ersten "Computer" basierten dann auf diesen Rechenautomaten - Ausnahme der wirklich allererste Computer, Zuses Z3, die hatte bereits 1944 22-bit Wortbreite.

Aber zurück zu den rechenautomaten aus denen sich dann die Computer im heutigen Sinn entwickelten. Die konnten nur dezimale Ziffernfolgen verarbeiten. Jede Ziffer benötigte 4 bit. Damit man auch Texte z.B. Kommentare in der Kontoführung mit speichern konnte, brauchte man mehr Bits. Theoretisch hätten 6-bit gereicht, aber in diesen Rechenautomaten war alles in 4-bit Gruppen unterteilt. Also hat man dann für Buchstaben einfach zwei dieser Worte zusammen gefasst, die Elektronik musste das dann in zwei Schritten bearbeiten, dafür kam man dann ohne aufwändige technische Ergänzungen aus.

Als Elektronik dann viel kleiner und billiger wurde, hat man dann gleich alles in 8er Gruppen gebaut und die "8-Bit Rechner" waren geboren. Mit 8-Bit war man dann zu den alten 2×4bit Systemen kompatibel. Als Wortspiel in Englischer Sprache nannte man das dann einfach "Byte".

Also ein Byte setzt sich aus 8 Bit zusammen. Für den alten Kram hat man dann ein weiteres Engl. Wortspiel gemacht und nannte das dann "Nibble". Weil "Knabbern" ist ja weniger als "Beißen".

Da die ersten "richtigen Computer" die Zahlen und Texte verarbeiten konnten also auf 8-Bit basierten, hat man dann die 8-Bit als Grundeinheit für Daten genommen, Speicherplatz und Geschwindigkeiten werden daher in Byte bzw. Byte pro Sekunde gemessen, auch wenn schon seit einigen Jahrzehnten kein Computer mehr nur 8-Bit gleichzeitig verarbeiten kann bzw. überträgt. Moderne Computer haben ja Wortbreiten von mindestens 32-bit. Die 8-bit die der Programmierer sieht bzw. darin denkt werden simuliert, der Computer kann nur 32-bit oder 64-bit auf einmal bearbeiten, der lässt dann die übrigen Bits unbenutzt oder trennt da "heimlich" in mehreren Bearbeitungsschritten 8-bit Häppchen heraus zum Anzeigen.

Woher ich das weiß:Berufserfahrung

1 Bit ist die kleinste Informationseinheit. Es kann entweder gesetzt oder nicht gesetzt sein. 2 mögliche Zustände also.

1 Byte sind 8 Bits in Reihe. Du kannst also alle möglichen Kombinationen von 8 Bits als Zustände haben. Das ist 2^8 = 256. Meist repräsentiert als 0ern und 1en. Beispiel 10101100 = 184

Das sind die Größeeinheiten.

8 Bit = 1 Byte

1024 Byte = 1 Kilobyte

1024 Kilobyte = 1 Megabite

1024 Megabyte = 1 Gigabyte

und so weiter...

Bit steht für "Binary Digit" und ist eben eine einzelne Binärzahl - also entweder 1 oder 0

8 Bit sind ein Byte

8 Bits sind ein Byte und ein Bit ist entweder eine null oder eine 1

Was möchtest Du wissen?