Warum können normale Bildschirme kein HDR wiedergeben?

6 Antworten

Hallo

  • HDR ist eine Dynamikkompression um eine an normalen Monitoren nicht darstellbare Gesamtdynamik sichtbar umsetzen zu können
  • normale Monitore können nur mittlere Kontrastverhältnisse mit korrektem Farbraum wiedergeben. Für Fotografen oder Grafiker werden deswegen sogenannte Print Proof (Druckvorstufe) Monitore hergestellt und ab 1000€ aufwärts verkauft und selbst damit arbeite man in einem beschränkt sichtbarem Farbraum nur eben in einem genau kalibrierten.
  • typischerweise werden Monitore für 3x8 BIT JPEG Bilderdarstellung optimiert. 8 Bit ist fein genug für denn Mittelbereich aber zu grobstufig für Weiss und Schwarztöne (Pastefarben). Auch kann man damit keine "Metallfarben" wiedergeben als ein realistisches Gold oder Platin
  • Monitore haben unterschiedliche Techniken die meisten Monitore basieren auf billige und schnelle TN Panel Technik die keine exakte Farbweidergabe haben und auch die Farbwerte Blickwinkelabhängig ändern. Mit diesen Monitoren kann man trotz super Prospektwerte nicht mal den JPEG Farbraum korrekt wiedergeben

Der Kontrastumfang ist der Unterschied zwischen dem dunkelsten Schwarz, und dem hellsten Weiss.

Schau mal nachts aus dem Fenster, und merk' Dir, wie dunkel der Himmel ist.

Dann schau', am Tag bei blauem Himmel  - sehr kurz  - in die Sonne, und merk' Dir etwa, wie hell sie ist.

Dann vergleiche es an Deinem Rechner mit Fotos mit Nacht- oder Sonnenszenen.

Die Sonne auf dem Foto ist vermutlich Weiss. Aber nicht so hell wie die echte Sonne. Also ist der Dynamikumfang zu klein, um die Sonne korrekt abzubilden.

Immerhin hat das den Vorteil, daß man keinen Sonnenbrand bekommt, wen man Strandfotos anschaut.

Dein Monitor hat einen großen Kontrastumfang!

Ganz anders sieht es da aber bei Bildsensoren aus!

Dein Monitor hat einen großen Kontrastumfang!

Das glaube ich nicht!

1

Mit dem Schwarz fängt es tatsächlich schon mal an. Schau dir einen ausgeschalteten Bildschirm an wenn ausreichend Licht darauf fällt: Der ist nicht schwarz, bestenfalls dunkelgrau. Und dunkler als das kann er nicht werden - ausser, Du schaltest um dich alle Lichtquellen aus!

Und warum der RGB-Farbraum hier verwirrend sein soll verstehe ich auch nicht ganz. RGB (Rot-Grün-Blau) ist schliesslich das Prinzip, nach dem (fast) alle Monitore funktionieren. Jetzt nehmen wir mal die Farbe Weiss - Sie wird auf Monitoren dadurch erzeugt, das drei nebeneinander liegende Bildpunkte in diesen drei Farben maximal leuchten. Unser Auge lässt sich täuschen und nimmt dies als Weiss war. In ähnlicher Weise lassen sich unsere Augen täuschen bei der Darstellung von Farben auf dem Bildschirm.

Ich kann dieses "Weisse" Licht eines Monitors physikalisch aber dann auch wieder nur in diese drei Farben aufspalten. Schon mal gesehen, wie echtes weisses Licht durch ein Prisma fällt? Es besteht aus unendlich vielen Farbtönen zwischen Ultraviolett und Infrarot. Das sind die natürlichen Grenzen der Farbwahrnehmung unserer Augen.

Deswegen ist weiss nicht wirklich weiss und schwarz nicht wirklich schwarz. Und auch alle anderen Farben auf einem Monitor sind (ausser reines Rot, Grün oder Blau) eben eigentlich nur eine optische Täuschung.

Genau. Damit beschreibst Du unter anderem, warum normale Monitore als Ausgabemedium für HDR so wenig geeignet sind wie PC-Lautsprecher zur Wiedergabe einer Brucknersinfonie :-)

OLED Schirme sind aber eine interessante Entwicklung...

Das RGB Modell ist deswegen nicht gut für eine Diskussion geeignet, weil es den wesentlichen Qualitätsparameter lightness bzw. intensity "versteckt".

In der Druckszene (und auch bei Heimgeräten) wird immer mit dem CMYK-Modell gearbeitet, weil Du auf Schwarz ("K") nicht verzichten kannst.

0

Aber der Wikipedia-Artikel ist doch total ausführlich und superklar!

Seit wie Medien benutzen ist dieses Problem bekannt, heiß diskutiert, und immer wieder dadurch gelöst, dass man uns Menschen eingeredet hat, dass das, was technisch preisgünstig realisierbar war, für uns ausreicht!

Das fing an mit den "Kunstdrucken" des 19. Jahrhunderts, über die Schallplatte, Stummfilme, bis zu 24x36 Dias, UKW (=FM) Radio und 576i-Fernsehen.

Bei Tönen handelt es un den Frequenzumfang und die Dynamik (lautestster / leisester Ton), bei Bildern um die Pixel und die (Farb-)Dynamik. Letzteres ist auch ein 2-dimensionaler Raum, je nach Farbmodell aber auch 3-dimensional, die verständlichste Darstellung ist wohl das HSV (oder HSI) Modell. In "RGB" zu denken verwirrt in diesem Zusammenhang.

Aus der Fotografie (auch ind erst recht der digitalen!) ist bekannt, dass man im Dunkeln keine Bilder machen kann, und einen Gegenlichtaufnahme "nix wird" :-)

Das menschliche Auge nimmt einen Kontrastumfang von 1:100.000 und unter Berücksichtigung von Hell-Dunkeladaption sogar von 1: 10.000.000.000 wahr.

Eine ähnlich fantastische Leistungsfähigkeit hat uinser Ohr.

So gewaltige Informationsmenge zu speichern und zu übertragen war bis vor kurzem jenseits unserer technischen Fähigkeiten.

Sensoren sind meist nicht so das Problem, aber die Wiedergabe. Ein Musikstück in echter HiFi (nicht in dem was in der Normung so heißt) im Wohnzimmer wiederzugeben, erfordert schon einige Tausend € Investition.

Was Bilder angeht, so ist die Technik gut fortgeschritten, was die Marketingangaben angeht. Testberichte von Monitoren zeigen allerdings, dass da in der Regel um Größenordnungen übertrieben wird.

Ein schwieriges Problem ist die Datenrate. Videoclips werden heute hoch-komprimiert verlustbehaftet gespeichert und übertragen. D.h. beim Betrachter wird später die Illusion einer hohen Auflösung/hohen Dynamik erzeugt. Das ist grundsätzlich mit der Erzeugung von Artefakten verbunden, die sich allerdings mit den Unzulänglichkeiten der Ausgabegeräte meist gut mischen.

Standbilder könnten aber in hoher Qualität (HDR) übertragen werden. Nur die heutigen massenproduzierten Grafikkarten und Monitore sind darauf nicht vorbereitet. Warum sollten sie auch? Das ist bisher kein Markt.

Was möchtest Du wissen?