Was will die USA von Deutschland?

...komplette Frage anzeigen

7 Antworten

Naja die Amis wollen Deutschland nicht auslöschen, aber  üben hier sehr viel Einfluss aus, sodass es Vorteile für die Amis gibt und manche Nachteile für Deutschland. Und die Beziehung zwischen Deutschland und USA ist auch sehr gut.

Denn die Bundesregierung kriecht ständig in den A**** von den Amis und natürlich wird hier auch ein Weltbild in Deutschland dargestellt, dass die Amerikaner unsere Retter sind und wir ihnen für alle ewige Zeit was schulden müssen. Passt den Amis beispielsweise was nicht, dann kommt wieder die Schuld der Deutschen im 2.Weltkrieg.

Werden wir bald die Amerikanische Flagge, an statt der deutschen Flagge
hissen. Agiert Merkel vielleich schon unter Amerikanischer Führung?

Ja, das Gefühl habe ich auch.

Antwort bewerten Vielen Dank für Deine Bewertung

Du weißt schon das wir ein Bündnis mit Amerika haben. Die stehen auf unserer Seite sollte es zum Krieg kommen. Andere Staaten sind auch noch unsere Verbündeten. Was hast du jetzt mit Amerika?

Antwort bewerten Vielen Dank für Deine Bewertung

Das ist so nicht richtig. Das die Amerikanische Politik einen Einfluss auf Deutschland hat steht außer Frage, aber trotzdem wird uns Amerika niemals lenken. Ausspioniert wurden alle und die Stützpunkte gibt es immer noch wegen dem zweiten Weltkrieg und der NATO.

Antwort bewerten Vielen Dank für Deine Bewertung

Du kommst mit populistischen Vorwürfen und Vorurteile und wir sollen dir dann sagen, welche Auswirkungen aufgrund deiner populistischen Vorwürfe es ergeben soll.

Nein, so sicher nicht.  Zumal es ja nicht so ist, also ob BND und Co nicht auch ausspionieren (wie die Franzosen).

Außerdem kannst du froh sein, dass die USA, Frankreich und die Briten in Deutschland waren. Stalin hätte sich dann nicht nur Ostdeutschland unter dem Nagel gerissen.


Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von karapus001
06.05.2016, 17:45

Außerdem kannst du froh sein, dass die USA, Frankreich und die Briten in
Deutschland waren. Stalin hätte sich dann nicht nur Ostdeutschland
unter dem Nagel gerissen.

Ja besonders wann die Amis erst im Jahr 1944 gekommen sind, nachdem die Sowjetunion voran ging nach Berlin. Davor war es denen egal was mit Deutschland und Europa passiert...

Das typische Weltbild, die Amerikaner unsere Retter und wir müssen ihnen auf ewige Zeit was schulden...

0

Eine deiner anderen Frage war "Warum gewinnt die AfD immer mehr Anhänger?"

https://www.gutefrage.net/frage/warum-gewinnt-die-afd-immer-mehr-anhaenger?foundIn=user-profile-question-listing

Einer der Gründe ist dümmlicher Anti-Amerikanismus.

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von Nasenbohrer85
06.05.2016, 09:05

Den Spagat verstehe ich jetzt gerade nicht, ist die AfD nicht wirtschaftsliberal und damit für noch mehr freien Markt? Also genau das, was es in Amerika gibt?

0

Hallo! Du solltest Dich politisch mal besser informieren. Die USA haben oft genug die Drecksarbeit auch für und gemacht. Beispiel Befreiung Bosnien.

Ich wünsche Dir ein gutes und schönes Wochenende.

Antwort bewerten Vielen Dank für Deine Bewertung

Die USA wollen den Profit ihrer winzig kleinen Geldelite steigern. (Die berüchtigten "1%").

Das ist de facto deren einziges, alles andere übersteuerndes Staatsziel.

Antwort bewerten Vielen Dank für Deine Bewertung

Was möchtest Du wissen?