Warum wollen Deutsche immer Recht haben?
3 Antworten
Weil die deutsche Kultur eine sehr kritische Kultur ist, sie dürfen kritische denken, alles hinterfragen, ja es wird sogar erwünscht Dinge zu hinterfragen. Aber weil sie das dürfen und absolute Meinungsfreiheit herrscht könnte darauß Rechthaberischkeit (ist das überhaupt ein Wort^^) resultieren
--- ODER ---
Sie haben keine Ahnung, das es oft viele Aspekte eines Sachverhaltes gibt, weil sie es nie gelernt haben Dinge auf verschiedenen Perspektiven zu sehen
Weiter Gründe schließe ich nicht aus
Ist das so? Meiner Erfahrung nach nicht.
Weil wir auch alles bezahlen müssen, also bestimmen wir auch, was gemacht wird.