Ich habe bereits viele Spiele und Anwendungen in HDR auf meinem Samsung CRG9 32:9 Monitor ausprobiert, aber man sagt ja das HDR 10Bit benötigt und der Monitor unterstützt ja 10Bit sobald ich die Auflösung auf 100Hz einstelle. Dennoch konnte ich HDR nutzen obwohl ich die 120Hz + 8Bit Farbtiefe in den Nvidia Einstellungen aktiv hatte.
Meine Frage ist nun wird 10Bit automatisch aktiviert sobald ich eine HDR Anwendung starte, oder müssen die 10Bit in den Nvidia Einstellungen aktiviert sein um die 1 Mrd Farben in HDR wiedergeben zu können? Ich hatte beides ausprobiert und die Inhalte sahen in HDR10 mit 8Bit Einstellung und der 10Bit Einstellung identisch aus.