Viele neuen Filme und Serien basieren auf zwanghafte politische Korrektheit und in manchen werden sogar linke Propaganda verbreitet.

Früher gab es auch diverse Charaktere (Beispielsweise Menschen mit anderen Nationalitäten oder homosexuelle) aber die finde ich persönlich nicht schlimm, weil es nicht um die Politik ging und die Charaktere ganz neutral gezeigt wurden. Ich meine, Mensch ist Mensch.

Aber heutzutage basiert es wirklich nur noch auf die politischen Inhalte. Es wird ständig versucht, die Zuschauer zu erziehen. Es geht fast gar nicht mehr, um die eigentliche Thematik und Handlungen.

Was sind eure Perspektiven und Meinungen dazu? Verdirbt toxische Wokeness die Filmindustrie?