Sind das hier Pixelfehler?

5 Antworten

Hallo

2 Punkte

1.) das ist völlig normal, bei Canon Amateurkameras sind 0,1% "defekte" Pixel üblich bei Einsteigerkameras sind es bis 0,5% und bei Profi Kameras sind 0,01 % üblich.

Eine EOS 600D ist auch keine Astrokamera weil "echte" Astrosensoren haben bei Auslieferung 0,000001% Hardwarefehler bei 18°C. Bei einem 24MP Sensor sind das immer noch um 240 Sensel

Canon selektiert die Sensoren nach der Produktion und sammelt die 0 Fehler Sensoren für Canon Astrokamera Sondereditionen. Aber 99% der von Canon verkauften Da Astrokameras werden nicht als "Astrokameras" eingesetzt sondern für wissenschaftliche oder Indistruelle Anwendungen wo man 0 Fehler Sensoren braucht/will und dafür sind die Canon Da Typen "Schnäppchen". Auch weil die Sensoren zumeist einen dünnen Filterstack/Tiefpassfilter bekommen und 10-20% mehr Diagonal Auflösung haben. Zudem lassen die Astro Filterstacks tiefe UV und die NIR Bereiche durch welche bei photografischen Typen geblockt werden

Also wenn man mit einer 600D denn Sternehimmel fotografieren will vor allem als langzeitbelichtung über 1ner Sekunde macht man davor ein aktuelles Sensormapping und nach der Aufnahme denn Dunkelabzug. Und bei Temperturen über 10°C besorgt man sich eine Dose Kältespray und kühlt damit die Kamerarückwand hinter dem Klappsensor runter im Prinzip haut man einen 1 Sekunden Sprühsstoss drauf und wartet bis das Kältspray "verdampft" ist und haut den nächten Sprühstoss drauf. Man kann fesststellen das die Rückwand immer heisser wird und das Kältspray immer schneller verdampft.

Wenn man die 600D auf "Astro" umbaut verbaut man gleich Heatpipe Rohre auf Sensor und Prozessor und montiert dort ein Peltierelement. Die Stromlose "Zwischenlösung" für Outdoor ist dass man die Heatpipeplatte mit einem Becher bestückt und dort dann Kältemittel einfüllt (Trockeneis bzw flüssiger Stickstoff oder eben flüssige Äthermischungen)

Punkt 2.)

Objektive haben mehr oder weniger Astigmatismus und sind nicht "Farbrein". Je lichtstärker die Optik um so grösser/sichtbarer wird das Problem. Die Problemlösung ist das man die Optik abblendet, meist braucht man 2-3 volle Blendenstufen. heisst eine EF 50/1.4 (Das ist auch eine besonders schlechte/grausame Optik für Sternenhimmelabbildungen) muss man etwa auf Blende 4 bis 4.8 abblenden die wird dann in etwas so Farbrein wie das EF 50/2.5 Macro bei Offenblende. Nun denn vor 100 Jahren hat man superlichstarke Optiken für die Sternfotografie entwickelt welche bei Offenblende "farbrein" sind und auch ohne Astigmatismussfehler zumindest im Hauptkreis bis etwa 75% Bildhöhe. Diese Optiken wurden dann als Noktons (Nachtoptiken) bezeichnt und fanden den Weg in die normale Fotografie (als Bouqetmonster). Ab denn 60ern bauten auch Nikon und Canon Noktone. Canon hat nach den FD55/1.2 AL (ASPH) und FD 85/1.2 ASPH aber nie wieder so Irrsinnig aufwändige/teuere Optik gebaut und deswegen sind die Gebrauchtpreise dafür immer noch über 1000€ bzw beim Nikkor 55er Noct ist man schon bei 5000€

Also wenn punktförmige Sterne

  • oval werden oder "durchstechen" wie Hutkrempen, zerknüllte Möbiusbänder oder Kleinsche Flaschen liegt das an der Optik und sammelt sich im Überbegriff Astigmatismus
  • die Farbe ändern liegt das an Farblängsfehler der Optik (loCA)

das sind Probleme mangelnder Präzision beim Glas und/oder der Objektivfassung bzw völlig normal für Optiken in Plastikfassungen an Plastikkameras.

Dazu kommen noch die Problem des Sensor bzw durch das FGA Bayer Gitter vor dem Sensor und denn Filterstack (Teifpassfilter) vor dem Sensor.

Der Tiefpassfilter reduziert die Auflösung macht also Sternenpunkte "grösser" bzw "weicher".

Canon bestückt selbst aktuelle 32MP APS-C Sensoren mit Tiefpassfilter und reduziert die Diagonalauflösung auf "26MP." Das ist für Canon Fotografen ein grosser Fortschritt,, hat aber 2015 schon die Nikon D7200 aus 24MP rausgeholt,,,, mit der Pentax K3II und der Fuji T2 knapp dahinter.

das könntn theoretisch Pixel-Fehler sein, es kann aber auch ganz einfach ein optischer Effekt sein, weil das was du da aufnimmst nicht unbedingt das ist wofür die Sensoren entwickelt wurden...
Deine Kamera nimmt ja nicht für jeden einzelnen Pixel alle 3 Farben (rot, grün und blau) auf, sondern hat für jeden Pixel nur eine Farbe und jede 4-er Gruppe an Pixeln enthält (meist) 2 grüne, 1 rotes und 1 blaues Pixel.
Normalerweise wird dann das gesamte Bild, also die "richtigen" Farben von allen einzelnen Pixeln auf Basis der Farbwerte der benachbarten Pixel zusammen errechnet.

(Google mal nach "Bayer Muster")

Wenn du nun Sterne aufnimmst, also klitzekleine weisse Punkte vor einem ansonsten ganz schwarzen Himmel dann fällt da evtl. das Licht von einem kleinen weissen Lichtpunkt auf nur einen einzelnen Pixel deines Sensors (oder hauptsächlich auf den einen Pixel und nur minimal auf einen angrenzenden) und entsprechend muss das irgendwie interpretiert werden. Weil aber der einzelne Pixel nur eine einzelne Farbe (also rot, grün oder blau) aufnehmen kann fehlen der Kamera Informationen welche Farbe dieser winzige Lichtpunkt denn nun haben soll, weil drum herum nur schwarz ist und so da keine Farbe aus den benachbarten Pixeln errechnet werden kann. Deshalb können da die einzelnen Sterne natürlich nicht immer weiss sein, weil dazu müsste die Kamera ja wissen dass da in dem einen Pixel nicht nur die eine Farbe ist die der Pixel erkennen kann, sondern haben dann halt evtl. andere Farben, meist blau oder rot, weil die grünen Pixel öfter vorhanden sind und auch für Luminanzwerte herhalten müssen...

Die Kamera kann also weisse Sterne falsch interpretieren und daraus rote oder blaue Sterne machen.

Wenn es Pixel Fehler wären, dann wären die auf all deinen Aufnahmen exakt gleich... Wenn du also mehrere Bilder hast, und die Bilder nacheinander anschaust und da die selben farbigen Punkte an der selben Stelle sind, oder auch mal z.B. keinen Sterne fotografierst sondern einfach den Deckel auf dem Objektiv lässt und einfach nur mal 30 Sekunden lang ein ganz schwarzes Bild machst. So siehst du dann die Pixel Fehler

Ich würde auf Hot Pixel tippen. Aber dafür müsste man das Bild stechen, also heller ziehen, um zu sehen ob es Sterne sind oder pixel Fehler. Aber bei grünen Punkten kannst du fast sicher sein,Das es Pixel Fehler sind. Schlimmer wird das erst beim stacken, dann werden die zusammen gefügt und wandern übers Bild. Halt man meist rote, grüne doer blaue Linien druchs Bild. aber die lassen sich alle raus rechnen mit passenden Kalibrierungsbilder

im gegensatz zu anderen bildpunkten sind sog. "hot pixel" immer deutlich klein und klar und immer in einer der 3 primärfarben, meist rot.

das ist bei astrofotos und einem fast schwarzen hintergrund normal und wird von den bekannten und bewährten astro-bildbearbeitungsprogrammen wie deep sky stacker oder fits work herausgerechnet, wenn du reihenaufnahmen und dazu sog. "darks" und "flats" aufnahmen machst.

dein bild hat keine besonderheiten oder irgend ein lohnenswertes stellares objekt im blickfeld. oder was hast du mit deiner langzeitbelichtung vorgehabt?

Woher ich das weiß:Hobby

Ich bin leider nicht vom Fach, allerdings schau ich mir gerne die Sterne an und kann sagen, dass Sterne auch rot/grün/blau funkeln.

Woher ich das weiß:eigene Erfahrung