Ist Deutschland eine US Kolonie geworden?

5 Antworten

Es gibt auch Leute, die sagen das die USA immer noch britische Kronkolonie sind. Von daher sind wir die seit dem Brexit natürlich los. :D

Spaß beiseite. Deutschland ist ein souveräner Staat und die USA ist ein souveräner Staat. Wir pflegen Partnerschaft und manchmal sogar Freundschaft und wir haben den USA nach 1945 sehr viel zu verdanken. Aber das macht uns nicht zu einer "US-Kolonie". Wer sowas glaubt, lebt in seiner eigenen Welt und hat eine etwas verquere Wahrnehmung der Realitäten.

Nein, wir sind keine US Kolonie. In manchen Punkten auch gerne mal mit den USA uneinig, auch wenn wir uns sehr an den USA orientieren bzw. diese gerne versuchen Einfluss zu nehmen - letzteres ist übrigens kein Thema was speziell Deutschland betrifft, dies versuchen die USA weltweit, auch bei China... Nur China hat andere Ausgangslage (Wirtschaftlich, UN-Veto, Atomwaffen) - ein Grund, weshalb wir auf EU Ebene stärker zusammenarbeiten sollten, denn dann hätten wir ähnliche Lage wie China und Russland.

Die EU wird China niemals das Wasser reichen können

0
@CemoCarleone

Das liegt halt daran, dass wir uns gegenseitig bekämpfen.

An sich könnten wir uns von China unabhängig machen, doch dazu müsste es wahre europäische Einigkeit geben... Aktuell machen wir eher das Gegenteil - wir machen nen Ausverkauf. Leider.

0

Ja, die USA bestimmen unsere Politik, unser Wahlverhalten und haben uns ihre Meilen, Feet und Inches per Gewalt aufgedrückt. Wir müssen jeden Morgen in der Schule die Nationalhymne der USA mit Hand auf der Brust singen und sind zum täglichen Verzehr von Donuts und BigMacs verpflichtet.

Wenn man in Deutschland eine Meinung äußert, die der US-amerikanischen Verfassung zuwider läuft, wird man verhaftet und kommt nach Guantanamo.

Alles klar - wir sind ein Kolonie der Vereinigten Staaten von Amerika - eindeutig"

<ende sarkasmus>

Nein, Nord Stream 2 ist fertig. Das war wohl nichts mit der Beeinflussung.

Was möchtest Du wissen?