Warum wollen Deutsche immer Recht haben?

3 Antworten

Weil die deutsche Kultur eine sehr kritische Kultur ist, sie dürfen kritische denken, alles hinterfragen, ja es wird sogar erwünscht Dinge zu hinterfragen. Aber weil sie das dürfen und absolute Meinungsfreiheit herrscht könnte darauß Rechthaberischkeit (ist das überhaupt ein Wort^^) resultieren

--- ODER ---

Sie haben keine Ahnung, das es oft viele Aspekte eines Sachverhaltes gibt, weil sie es nie gelernt haben Dinge auf verschiedenen Perspektiven zu sehen

Weiter Gründe schließe ich nicht aus

Ist das so? Meiner Erfahrung nach nicht.

Weil wir auch alles bezahlen müssen, also bestimmen wir auch, was gemacht wird.