Wie ihr wisst, gibt es in Hollywood viele Filme, wo die Engländer bösen sind. Was denken die Engländer, wenn sie solche Filme sehen?

Was denken Briten, über die Hollywood Filme, wo die Briten Bösewichte sind?
Geschichte,
England,
Politik,
Filme und Serien,
Großbritannien,
Hollywood