Wann wurde das Image von Amerika so schlecht?
schreibe eine Facharbeit in English und wie sich das Bild vom American Dream in der modernen Popkultur ins negative entwickelt hat, und wollte etwas analysieren, wofur ich gerne eure Meinung hatte. Ab welchen Zeitpunkt bzw im welche Jahr hat sich eure Sicht auf Amerika stark verschlechter?
3 Antworten
Das Bild der USA hat sich bereits in den 60er Jahren stark verschlechtert, mit einem Höhepunkt 1967/68 - eine Folge der Grausamkeiten der USA in Vietnam. Da war ich noch ein Kind, aber da man Jahre danach noch viel davon hörte, hat mich das entscheidend beeinflusst. Als ich 14 war, wurde ich Kommunist und Anhänger der Sowjetunion und bis heute habe ich meine Meinung nicht geändert.
Aufnahmen aus einer Demo in West-Berlin damals:
Ich habe keine Zeit (eigentlich: keine Lust ;-), länger zu recherchieren, aber die USA unterstützten schon in den 1950er und 1960er Jahren Militärregime in Lateinamerika sowie den Schah von Persien (Iran). Auch Wirtschaftsimperialimus gehörte zu ihrem Repertoire (United Fruit Company United Fruit Company - Wikipedia*) Zum Vietnamkrieg kam dann noch der Sturz von Allende in Chile, an dem die USA auch maßgeblich beteiligt waren.
*) Merkwürdigerweise gibt es keinen deutschen Wikipedia-Artikel.
Spätestens seitdem Trump Präsident war und die Welt gemerkt hat dass die Amerikaner gewillt sind einen Vollidioten als Landesoberhaupt zu wählen sofern dieser die Klappe weit genug aufmacht um seinen Kontrahenten schlecht dastehen zu lassen.