Wieso hassen fast alle Deutschen die USA?
So gut wie alle Deutschen hassen oder verachten die USA. Kaum jemand redet positiv über das Land, manche kritisieren nur die US-Politik andere hassen das Land und seine Menschen abgrundtief und beschimpfen sie sogar. In Frankreich lieben alle die USA total, da würdest du voll anecken, wenn du auch nur den geringsten Hauch von Kritik an den USA oder deren Politik üben würdest. Kroaten, Türken und Polen hassen manchmal auch die USA, Araber hassen häufig die USA, aber den größten Hass auf das Land haben die Deutschen. Was hat Amerika den Deutschen angetan? Gut, im Zweiten Weltkrieg kämpften sie gegen uns , aber der ist so lange her, deswegen sollte man heute wirklich nicht mehr nachtragend sein, außerdem hätten die Deutschen den Krieg gewonnen, gäbe es keine Juden mehr und die ganze Welt wäre ein rechtsextremer Albtraum. Was ist der Grund für den Hass?