Warum sind US-amerikanische Serien und Filme beliebter als deutsche insbesondere und europäische im Allgemeinen?

9 Antworten

Von Experte ScarletWitch1 bestätigt

Weil die deutschen Serien immer so auf Realismus getrimmt sind und dadurch etwas blass wirken. Aber Hollywood hat auch viel mehr Geld für die Filme und Serien und natürlich auch ein besseres Marketing.

CorgiMcweasel 
Fragesteller
 16.05.2022, 22:45

"blass" und "auf Realismus getrimmt" passt sehr gut

1

Ich finde sie einfach interessanter und besser gemacht, jedenfalls die manchen, als z.B Deutsche Filme oder Serien. Ich stehe aber nicht nur auf Amerikanische Serien und Filme, sondern auch vereinzelt auf Asiatische Filme und Serien 🙂.

Deutsche Produktionen kommen nicht ohne erhobene Zeigefinger aus: Sozialkritik, jüngste Vergangenheit, Minderheiten usw.usw.

In Filmen/Serien, die unterhalten sollen, stören und langweilen Belehrungen einfach.

Es ist ja nicht so, daß deutsche Regisseure keine Spannung in ihren Werken erzeugen könnten, aber der Mainstream verlangt, daß entweder eine Naziverschwörung aufgedeckt wird oder Ausländer als Täter im Krimi ein no-go sind.

Weil die meistens besser sind finde ich