Unterschied double decimal und decimal in SDL?
Wann verwendet man was?
Und was bedeutet double decimal (7,2) ?
1 Antwort
Von gutefrage auf Grund seines Wissens auf einem Fachgebiet ausgezeichneter Nutzer
programmieren, Informatik, Programmiersprache
Ich denke mal "double" wird eine Dezimalzahl doppelter Breite sein, also mit doppelt so vielen Bits wie eine normale Dezimalzahl, somit mit höherer Präzision.
So wie auch im IEEE 754:
https://en.wikipedia.org/wiki/IEEE_754#Basic_and_interchange_formats
binary32 und binary64.