Wenn Ausländer derzeitige TV-Filme ansehen, in denen deutsche Schauspieler "Heil Hitler" sagen, was denken sie sich dabei?

5 Antworten

Wenn sie einen Hauch von Bildung haben dann, das es diese Zeit in der Vergangenheit gab und die Leute, die damals das Händchen gehoben haben heute fast alle unter der Erde sind.

Bei den Filmen handelt es sich zumeist um Dokumentationen mit originalem Bildmaterial oder moderne, oft fiktionale Filme, die in der Zeit spielen. Das hat überhaupt nichts mit der Gesinnung der Zuschauer zu tun, ebenso wie wenn man einen Western schaut in dem Indianer als Übeltäter hungestellt und von den "mutigen Cowboys" erschossen werden, Filme in denen Sklaven gezeigt werden etc.

Nazis tauchen in diversen nicht-deutschen Filmen auf, sowohl in Blockbustern als auch in Trash. Denk nur mal an Indiana Jones, Inglorious Basterds oder dieses seltsame Machwerk wo Nazis mit Dinosauriern auf der Rückseite des Mondes hausen...

Werden ja in der letzten Zeit Nazifilme in deutschen Fernseh-Sendern zunehmend ausgestrahlt.

Nein, das stimmt nicht.

Zeig mir mal so 20 bis 30 solche Filme und wann die "zunehmend" ausgestrahlt worden sein sollen.

PESHEVA 
Fragesteller
 03.03.2023, 21:11

In den letzten Jahren vermehrt davon schon. Insbesondere seit der sogenannten Flüchtlingskrise 2015. Kann jemand die Vergangenheit ändern? Noch nicht einmal ein Gott kann das. Tot ist die Vergangenheit, ob wir uns an ihr erinnern oder nicht

0

Hoffentlich nicht übertrieben. Es gab nun mal die Zeit und auch die Filme. Es ist ein Stück Geschichte.

PESHEVA 
Fragesteller
 03.03.2023, 20:52

Also wenn ich Ausländer wäre, käme ich eventuell schon auf den Gedanken, dass die meisten Deutschen schon irgendwie Nazis sind.

1
BlackSoul818  03.03.2023, 20:55
@PESHEVA

Das liegt dann aber am Ausländer und nicht an den deutschen. Die Nazi Zeit ist Vergangenheit und heute eher vereinzelte Fälle. Das sollte man nicht mit früher vergleichen.

Das extreme Ausmaß jetzt von früher ist heute nicht mehr.

1

Wenn diese Ausländer nur ein Stück Bildung genossen haben und ein wenig die Tagespolitik verfolgen, wissen die, dass es in Deutschland keine Neonazis in der Regierung gibt.

Allerdings habe ich auch schon gelesen, dass in bestimmten ländlichen Gebieten in den USA die Meinung besteht, in Europa laufe immer noch der zweite Weltkrieg und die Nazis seien immer noch an der Macht.

Rotfuchs716  03.03.2023, 22:00

US Amerikaner wissen mitunter sehr wenig über Europa.

1

einige glauben dann, dass die Deutschen generell Hitler Fans sind.

PESHEVA 
Fragesteller
 03.03.2023, 21:55

Ist ihnen nicht zu verdenken. Denn sie sollen es ja auch

0