Serien/Filme zu politisch
Warum müssen Serien oder Filme (nicht alle, logischerweise), politisch werden. Ob es jetzt die Unterdrückung der Frauen von vor 200 Jahren sind oder die zwanghafte Einsetzung von schwarzen Schauspielern.
Nicht falsch verstehen, ich hab absolut nichts gegen Schwarze. Mir geht es um die offensichtlich, zwanghafte Einstellung schwarzer Schauspieler z.B.
Das ist nicht bei jeder Serie so, aber bei vielen merkt man einfach direkt, dass Schwarze z.B. extra auf Führungspositionen kommen oder so. Also einfach krampfhaft. Bei "The Rookie" ist es gut gelöst, finde ich. Da sind schwarze Schauspieler, auch in Führungspositionen usw. aber man hat nicht das Gefühl, dass es krampfhaft gemacht wurde.
Wisst ihr was ich meine?