Findet ihr auch, dass amerikanische Filme und Serien immer schlechter werden?

11 Antworten

Jede Ära geht einmal zu Ende.Jeder orientiert sich am Besten und irgendwann haben sie die Besten überholt. Das ist allgemeingültig und trifft für alle Bereiche zu.

CorgiMcweasel  03.11.2022, 23:17

und wer sind deiner Meinung nach jetzt die Besten?

0

Empfinde ich auch so, ist immer irgendwie dasselbe und auch kein Humor mehr dabei.

Ja, die Amerikanischen Filme werden nur noch schlechter und schlechter, und in jedem Film davon sind die gleichen Themen!

CorgiMcweasel  03.11.2022, 23:18

welche anderen Themen würdest du denn gerne noch mal sehen?

0

Es kommt darauf an,viele Filme und Serien mußten wegen Corona unterbrochen werden,es gibt also so eine Art Stau und darum werden sie einfach runtergedreht.Billige Massenware eben.Wenn sich der Stau aufgelöst hat könnte es sein das Amerikanische Filme wieder besser werden.

Woher ich das weiß:Hobby
Freibierbauch  15.11.2021, 14:27

Das glaube ich kaum. Hollywood ist seit etwa zwei Jahrzehnten in stetigem Niedergang begriffen.

2

Man muss die richtigen Sachen schauen. So toll waren amerikanische Filme aber nie außer Sachen wie Star Wars oder Jurassic Park.

Woher ich das weiß:Hobby – Höre viel Musik