Hat Deutschland die Macht die Welt zu herrschen?
Hallo zusammen,
Ich wollte euch allen eine Frage stellen, die mir nach dem Anschauen eines Videos auf Twitter in den Sinn gekommen ist.
In dem Video habe ich jemanden gehört, der folgendes gesagt hat (ich zitiere): "Wir Deutschen haben die Macht, die Welt zu beherrschen. Zum Beispiel haben wir den Zweiten Weltkrieg durchgehalten, weil Deutschland damals gegen vier Länder standgehalten hat, wie Russland, die USA, England und Frankreich!! Er behauptete, dass, wenn diese Länder alleine gegen Deutschland gekämpft hätten, sie keine Chance gegen Deutschland gehabt hätten."
Ich frage mich, ob das stimmt. Haben die Deutschen wirklich die Macht, die Welt zu regieren? Ich persönlich denke, dass Deutschland ein gewisses Potenzial hat, eine Atommacht zu sein oder eine starke militärische Kraft zu haben. Vielleicht würde dies anders aussehen, wenn die Regierung nicht so links ausgerichtet wäre.
Wie seht ihr das? Ich würde gerne eure Meinungen zu diesem Zitat hören.