Welche Filmindustrie findet ihr besser, die deutsche Filmindustrie oder die amerikanische?

11 Antworten

Weder noch, denn ich suche mir die Filme nicht nach der jeweiligen Filmindustrie aus, sondern nach der Qualität.

Wenn es natürlich um reine Fakten geht, dann ist die amerikanische Filmindustrie was den Aufwand und den Erfolg angeht, klar vorzuziehen.

Ansonsten mag ich aber auch die Filme aus Skandinavien. Gerade was das Thriller Genre angeht, gibt es aus diesem europäischen Raum den ein oder anderen bemerkenswerten Film.

Grundsätzlich schaue ich aber wie bereits erwähnt nicht darauf aus welchem Land der Film kommt, sondern ob der Film mich mitreißt.

Mit filmischen Grüßen

SANY3000

Von Experte SANY3000 bestätigt

Obwohl mir englische und französische Filme aktuell die Liebsten sind, würde ich bei dieser Auswahl sagen deutsche Filme.

Es gibt/gab viele gute deutsche Produktionen, besonders um 2000 rum. Die letzten Jahre waren jedoch recht furchtbar. Schweiger, Schweighöfer, M'Barek, und diese ganzen romantischen Komödien haben die deutschen Filme in eine echte Sackgasse geführt.

Aber mittlerweile gibt es ab und an wieder gute Filme. Gerade die historischen Verfilmungen oder sozialkritische Filme haben echt Potenzial. Und es gibt nach wie vor tolle deutsche Schauspieler. Vogel, Bleibtreu, Lau, Schilling,...

Die Amerikaner hingegen stecken immer noch in ihrer Schaffenskrise. Nur noch Remakes, Prequels oder Fortsetzungen. Da muss man sehr nach echten neuen oder originellen Filmen suchen. Was sie aber können, sind Serien.

es gibt sowohl bei den AMerikanern wie auch bei den Deutschen grottige Filme, aber auch sehr sehr gute Filme. DAss es vielleicht bei den Amerikanern mehr gute Filme gibt als bei den Deutschen - aber auch mehr Schlechte - liegt einfach an der höheren Anzahl der US-Filme und am höheren Budget.

Die dänische ist der Hammer. Und auch Schwedische und Norwegische.

Es gibt da super Filme, die Hollywood sich dann für Remakes kauft. Traurig dass die dann häufiger gesehen werden bloß weil da bekanntere Schauspieler mit machen und weil es aus Hollywood kommt.

Welche Filmindustrie findet ihr besser, die deutsche Filmindustrie oder die amerikanische?

Woran machst du Qualitaet fest, die Anzahl der Filme wo die meisten davon als Schnulzen zu bezeichnen sind, oder an den Skandalen wo sich Schauspielerinnen durch die Betten Rollen ergattern und spaeter wenn sie abgelegt wurden, das als Vergewaltigung darstellen?

Es gibt gute Filme aus Hollywood, aber immer sind sie so gedreht, das sie auch hinterher Gewinne einspielen, somit sind kuenstlerische Freiheiten sehr grosszuegig ausgelegt.

Die DE Filmindustrie hat doch keine Groessenordnung, somit ist nur die Qualitaet zu vergleichen und das kann ich nicht beurteilen, weil ich im Ausland wohne.

Woher ich das weiß:eigene Erfahrung

Was möchtest Du wissen?