Was hält ihr von Filmkörnung und Motion Blur in Games?

4 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Das Auge braucht Zeit um Helligkeits bzw. Farbwechsel zu erfassen. Bewegen sich Objekte schnell, verwischen Helligkeitsunterschiede ineinander. Also ist Bewegungsunschärfe (Motion Blur) im echten Leben immer vorhanden. Da ein Bildschirm eine Bewegung in Stufen anzeigt, entfällt dieser Effekt bzw. kann nicht natürlich wirken außer man hat eine sehr hohe Auflösung und eine sehr hohe Framerate so dass das es zu Bewegungsunschärfe im Auge selber kommt genau wie in der Natur. Hat man also nicht die Auflösung und Framerate, muss man der Natur eben nachhelfen.

Dazu gibt es zwei verschiedene Möglichkeiten. Die Grafikkarte hat geringe Auflösung und Framerate so dass ein Unschärfefilter über die Bewegung gelegt werden muss. Das ist nur ähnlich wie natürliche Bewegungsunschärfe und wirkt fast immer "komisch". Hat die Grafikkarte Auflösung und genug Framerate liegt das Problem am Bildschirm. Die meisten haben nur 60Hz Bildwiederholung, egal wie viel schneller die Grafikkarte Bilder berechnen kann, die können nicht angezeigt werden. Hier können aber mehrere berechnete Bilder überlagert werden so dass das zusammengesetzte Bild auf dem Monitor eine recht natürliche Bewegungsunschärfe bekommt.

Derzeit ist es technisch nicht möglich natürliche Bewegungsunschärfe mit einem Bildschirm entstehen zu lassen. Die Bildschirme sind einfach zu träge dafür, da können die Grafikkarten nichts dafür. Vielleicht wird oLED - oder eine Technik die noch nicht erfunden wurde - irgendwann schnell genug sein, das dauert aber sicher Jahrzehnte bis das Standard wird.

Filmkörnung ist ein reiner Effekt. Der soll meistens anzeigen, dass das was man sieht "sehr alt" ist. Filmkörnung ist also gut für Rückblenden. Wie gut der Effekt wirkt hängt sehr stark vom Alter des Betrachters ab. Tatsächlich ist sichtbare Filmkörnung sehr selten! Bereits in den 1920er Jahren konnte man schon "gestochen Scharfe" Filme herstellen. Die Auflösung eines guten Filmmaterials ist viel höher als die Auflösung des Auges. Die einzigen Ausnahmen sind frühe Farbfilme und vor allem "Schmalfilm" bzw. "Super-8" was nur bei Billigproduktionen und im Heimbereich verwendet wurde. Hier ist das Bild auf dem Film einfach sehr klein so dass man beim betrachten so stark vergrößern muss, dass die Körnung sichtbar wird. Bereits in den 1990ern hat man im Heimbereich schnell auf Video umgestellt, da gibt es keine Körnung. Man kann also sagen, dass eine Cutscene mit Filmkörnung sich auf etwa die 1970er und 1980er Jahre eingrenzen lässt. Davor war das einfach zu teuer für Zuhause und danach gab es Video.

Filmkörnung und Moition Blur per Filter belasten die Grafikkarte kaum. Das ist einfach ein Filter den die Grafikkarte recht einfach verarbeiten kann. Tatsächlich haben alle modernen 3D Spiele sehr viele Filter, zum Teil auch sehr Rechenintensive Filter ständig im Gebrauch. Nur so kann man z.B. Wasser, Feuchtigkeit und vor allem Fell und Haare richtig darstellen. Ohne diese Filter sieht alles so aus wie auf dem Nintendo64, nur weniger Eckig.

Gutes Motion Blur das aus vielen Bildern entsteht braucht natürlich viel leistung, es müssen ja pro auf dem Monitor gezeigten Bild viele Bilder berechnet werden. Aber hier hilft abschalten praktisch nicht, der Monitor zeigtr immer noch genau so viele Bilder an, nur die Information des Motion Blur (schnelle Bewegung vorhanden) fehlt.

Woher ich das weiß:Berufserfahrung

Ich mag es optisch nicht und schalte wenn möglich beides aus

Ersteres sagt mir nichts, aber zweiteres ist meiner Erfahrung nach eine Billig Methode, weil das Spiel nicht gut darin ist dafür zu sorgen, das sich etwas schnell anfühlt.

Woher ich das weiß:Hobby

Ich mag "motion blur" nicht.

Ich bekomme dann schon nach zirka 1 Stunde Spielzeit Kopfschmerzen wegen "motion sickness".