Hi ich schaute mir Heute Abend ein Film an! Und ich habe bemerkt das die Deutschen in jedem Hollywood Film (die bösen sind) Bei del Film ging es darum das die Engländer die guten waren also das waren Agenten und Deutschland die bösen! Und am Ende des Filmes hat England gewonnen und Deutschland verloren!!! Also findet ihr das auch net Scheiße diese Filme sehen Millionen von Menschen das macht doch keinen guten Eindruck wenn Deutschen immer (Der böse ist) ???? Wtff