Also in den meisten Kriegsfilmen töten Amerikaner immer die Deutschen und die Deutschen sind auch die Bösen (ist ja klar, die Filme sind aus Amerika), aber meine Frage ist, ob es einen Film gibt, der mal für die Deutschen ist, wo man auch sehen kann, was die Feinde uns angetan haben. Gibt es so einen Film überhaupt? :D
Verwandte Themen
Kennt jemand einen guten Pro-Deutsch Kriegsfilm?
Film,
Krieg,
Amerikaner,
Deutsche,
Kriegsfilm