Ist Deutschland "Besitz" der USA?
Mir ist mal so ein Gedanke gekommen, dass Deutschland ja eigentlich Besitz der USA sein könnte. In Deutschland werden Atomwaffen der USA gelagert, es gibt amerikanische Kasernen (natürlich auch andere) in Deutschland und die Alliierten, besonders die USA, haben nach dem 2. Weltkrieg und dem Sieg über die Nationalsozialisten hier die Kontrolle übernommen. Deutschland ist abhängig von der USA, was ich nicht unbedingt schlecht finde. Wir orientieren uns westlich, besonders vom amerikanischen Finanzmarkt (was natürlich auch daran liegt, dass viele AGs ihren Sitz in den USA haben). Wir haben guten Draht dorthin und es gibt Absprachen bei fast jeder ausserpolitischen Handlung. Deshalb die Frage.