Computer speichern Informationen in Binärdarstellung, also als Zahlen die nur aus Nullen und Einsen bestehen. Eine Null oder Eins wird jeweils von einem Bit gespeichert. Kombiniert man mehrere Bits, lassen sich so größere Zahlen darstellen. Mit 4 Bits beispielsweise alle Zahlen von 0 bis 15, da 0 als 0000 und 15 als 1111 im Binärsystem dargestellt wird. Außerdem gibt es noch Techniken, um auch negative Zahlen binär darzustellen, das verringert den Bereich dann aber, z.B. kann man mit 4 Bits dann die Zahlen von -8 bis +7 darstellen.
Desto mehr Bits man verwendet, desto größer also der Bereich der darstellbaren Zahlen. Ein Byte besteht (sowohl allgemein, als auch in C#) aus 8 Bit. Damit lassen sich die Zahlen von -128 bis +127 darstellen.
Zum Vergleich: ein int, der in C# sehr häufig zum Speichern von ganzen Zahlen verwendet wird, besteht standardmäßig aus 32 bit, kann also Zahlen von -2147483648 bis +2147483647 speichern.
Wenn du in einer Variable nur sehr kleine Zahlen speichern willst (also zwischen -128 und 127), kannst du einen byte statt einen int verwenden, um Speicherplatz zu sparen, da die 8 bzw. 32 Bit immer verbraucht werden, egal wie groß die gespeicherte Zahl ist.
Bei kleinen Programmen macht es keinen Unterschied, ob du 24 Bit mehr oder weniger verbrauchst, bei großen Programmen sind solche Optimierungsmöglichkeiten aber teilweise sinnvoll.