"Falsche Farben" bei Deepspace-Darstellungen?

4 Antworten

Die sind schwarzweis. Die farben werden durch die daten des lichtsensirs nachträglich eingefärbt. Glaub nicht das du mit den daten (zahlenwerte) viel anfangen kannst.

Wenn man mit dem Teleskop Deepspace-Objekte anschaut, dann bekommt man eigentlich meistens nur mit, ob was hell ist oder nicht, also Grautöne, bzw. schwarz-weiß. Das kommt aber im Grunde davon, dass die Pixel von Lichtsensoren (auch in unseren Augen) dann am empfindlichsten sind, wenn sie pauschal erstmal alles Licht detektieren. Kennst ja den Spruch: Nachts sind alle Katzen grau.

Man bekommt jedoch spektrale Informationen, sprich man kann das Licht von einem Deepspaceobjekt mit verschiedenen Filtern auf verschiedene Elemente untersuchen. Für das Wasserstoffsignal (H alpha), welches rot (656 nm) ist, brauchst du einen Filter, der speziell dieses Licht hindurchlässt, sodass du sicher bist, in diesem Moment nur rote Bestandteile des Objekts zu sehen. Das Bild, das du so erhältst, färbst du rot ein. Dann wechselst du den Filter aus, bspw. einen, der nur ionisierten Sauerstoff (OIII, 501 nm) durchlässt und färbst dieses grün ein. So verfährst du mit allen / den wichtigsten Spektrallinien, die aus diesem Gebiet kommen. Am Ende legst du die Bilder übereinander ("Stacking") und erhältst ein realistisches Falschfarbenbild.

Man könnte das Gleiche auch mit einem Farb-CCD machen, weil das grundlegende Prinzip identisch ist, aber da ist immer das Problem, dass du für jedes Pixel im Bild drei (RGB) Unterpixel brauchst, von denen jedes einen wenige Mikrometer kleinen R, G oder B-Filter davor hat, damit sie jeweils die gewünschte Farbe detektieren. Im Foto werden diese drei Pixel dann auch übereinandergelegt, sodass ein RGB-gemischtes Farbbild entsteht. Je kleiner jedoch deine Pixel sind, desto weniger gut kommen sie mit schwachen Lichtsignalen klar, also sollte man bei der Deepspace-Fotografie nicht drei Pixel auf eine Fläche quetschen, auf der man auch nur ein einziges haben könnte. Außerdem sind die Filter pauschal R, G oder B, und damit spektral ziemlich ungenau, nicht aber auf die im Deepspace typischen Farben (H alpha, OIII,...) speziell ausgelegt.

Die Bilder wurden nicht "verbessert" bzw. durch Nachbearbeitung verfälscht. Die orginale gibt es, aber diese sind in schwarz weiß.

Aber was bedeutet eigentlich die Aussage "falschfarben"?

Zunächst einmal fotografiert die Kamera nur in Schwarzweiß. Das ist die gängige Praxis, da sw-Kameras wesentlich lichtempfindlicher sind. Das liegt daran das vor einer normalen Kamera vor jedem Pixel ein farbfilter sitzt, die entsprechend nur Blaues, Grünes oder Rotes Licht zum entsprechenden Pixel lässt. Dies Nennt man Bayer matrix. Nun könnte man meinen das bei einer Auflösung von zb. 12MP bei einer Kamera 36MP existieren müssen, da jeder Pixel ja aus drei Farbkomponenten bestehen muss. Das ist nicht der Fall. Tatsächlich sind bei einer Kamera mit 12MP, 6MP grün, 3MP blau und 3MP Rot. Diese werden nachdem die Daten ausgelesen wurden "zusammengerechnet".

Nun ergibt sich daraus ein Problem. Für rotes Licht stehen zb. nur 3MP zur Verfügung, bedeutet die restlichen 9MP blocken rotes Licht ab. Bedeutet 75% des Lichts geht verloren. Das ist bei Deepsky Fotografie sehr problematisch, da die Objekte erstens sehr dunkel sind und somit jede Dämpfung des Lichts die belichtungsdauer verlängert und verstärkend kommt dazu, dass nicht jeder nebel die gleichen Wellenlängen (aka farben) hat. Bedeutet einfach gesagt, wenn ein Nebel einen sehr hohen Rot Anteil hat, aber zb. Kaum grün, sind 50% des sensor quasi 'nutzlos'.

Wie bekommt man nun trotzdem farbbilder bei einer sw-kamera? Man benutzt filter die jeweils nur rotes, grünes und Blaues (und meist noch Luminanz) Licht durchlassen. Dadurch steht jeder Farbe der volle sensor zur Verfügung. Man bekommt also ein Bild, mit roten, eins mit blauen und eins mit grünen bildinformationen. Eingefärbt und übereinander gelegt kommt ein farbbild herraus.

Nun wird bei diesem "einfachen" RGB(L) System auch viel "unerwünschtes" licht mit eingefangen. Da man aber weiß, das viele Nebel nur ein sehr enges Spektrum an Licht ausstrahlen, hat man dafür drei weitere Filter entwickelt.

O-III (die Spektrallinien des zweifach ionisierten Sauerstoffs)

Ha(alpha) (die Spektrallinie des Wasserstoffs)

S-II die (Spektrallinie des einfach ionisierten Schwefels)

Diese drei Bilder werden auch eingefärbt in RGB (Diese nennt man hubble palette) und übereinander gelegt. Da es sich hierbei nicht direkt um farblicht handelt, sondern um 'leuchtenden' zb. Wasserstoff oder Schwefel, nennt man diese Bilder dann Falschfarbbilder. Du erkennst dann in den Farben zb. Wasserstoffwolken wieder.

Woher ich das weiß:Hobby

rumar  29.09.2021, 17:16

Ein wesentliches Problem ist dabei auch noch die Tatsache, dass bei wirklich sehr weit entfernten Objekten das Licht, das uns von dorther erreicht, erheblicher Rotverschiebung unterworfen ist. Mit anderen Worten: eine ferne Galaxie, welche zum großen Teil bläuliches Licht ausstrahlt (welches Beobachter in der nahen Umgebung der Galaxie wahrnehmen würden), erscheint für uns gar nicht in dieser Farbe, sondern möglicherweise in rotem oder gar infrarotem Licht. Was dann die "wahre" Farbe der Galaxie sein soll, ist also nur schwer zu entscheiden.

Irgendwo wird es Rohdaten geben, aber dann wird es kein Foto sein. Die Spektren der gemessenen Strahlung liegen überwiegend nicht im sichtbaren Bereich.
Was man sehen kann, von Rot bis Violett, hat nicht mal ganz den Faktor 2 in der Wellenlänge bzw. Frequenz.
Klar könnte man den kleinen sichtbaren Anteil ausdrucken, aber das Farbspiel wäre nichtssagend und kaum wahrnehmbar. Kannst Du auch selbst mit einem Bildbearbeitungsprogramm machen, wenn Du die Farblegende hast.