Warum sind hier 80,8*10^9 Byte nicht 80,8 Gigabyte sondern 75,2?
Das Präfix Giga- (keine Ahnung ob das ein Präfix ist) bedeutet doch 1.000.000.000 (1 Milliarde). Also eine Milliarde Byte -> Gigabyte. Als ich im Explorer aber einen Ordner untersucht habe stand bei der Speichergröße 75,2 GB (80.817.430.528 Bytes) (siehe Bild). Dabei müssten 75,2 GB doch 75.200.000.000 Byte bzw. 80.800.000.000 Byte doch 80,8 GB sein.
5 Antworten
Weil Windows Binär rechnet, während die offizielle SI-Einheit dezimal ist.
Dezimal: 1 GB = 10⁹ = 1.000.000.000 Byte
Binär: 1 GiB = 2³⁰ = 1.073.741.824 Byte
Eigentlich zeigt Windows GiB (Gibibyte) an und nicht GB. Und so kommt die Differenz zustande.
1 Gibibyte ist definiert als 1024 Mebibyte. Wahrscheinlich steht GB hier für Gibibyte und nicht Gigabyte.
In der Informationstechnik für digitale Speichermedien mit binärer Codierung wäre die korrekte Bezeichnung "BiByte" für 2^10 = 1024.
Weil die Betriebssysteme in aller Regel falsch rechnen. Statt mit dem Dezimalsystem berechnen sie den Speicherplatz mit binären Zahlen
also z.B. statt 1000 dann 1024.
Und je größer die Zahl, dest größer wird der Unterschied.
Korrekte Bezeichnung für die Angaben des Betriebssystems wären dann nicht Giga-Byte, sondern Gigabi-Byte. mit dem "bi" für binär.
Weil "GB" in Windows halt nicht "GigaByte" sondern "GibiByte" bedeuten.
Mehr zu dem Thema findest du im hervorragenden Artikel über Bytes auf Wikipedia. (Muss ja hier nicht alles abtippen!)
Willkommen beim Bezeichnungskuddelmuddel von Microsoft - sollen wir mit "Laufwerken" und "Datenträgern" weiter machen? 😉