Warum werden deutsch immer schlecht dargestellt?
Die Frage soll NICHT rassistisch sein!!!!!
Mir ist jetzt schon öfter aufgefallen das man als deutsche immer von Ausländern anders behandelt wird oder generell das Ausländer Deutschland hassen( nicht jeder natürlich) warum ist das so ? Ich mein Deutschland bietet ihnen ein Dach und essen und sie behnemen sich so als wären sie der könig. Warum sind sie so respektlos zu deutschen ?
Wie wirst du denn anders behandelt?
Jein teilweise rufen mir komplett fremde hinterher das ich ne deutsche Kartoffel bin und fangen an mich ohne grund zu beleidigen
3 Antworten
Ich möchte an der Stelle niemanden in Schutz nehmen: Hast du dich schonmal gefragt, welche Erfahrungen "die Ausländer" auf täglicher Basis mit euch machen? Möglicherweise ist man sich nicht allzu unähnlich.
Ich weis wovon du sprichst! Lass dich von den Antworten hier nicht blenden. Mein bester Freund ist Türke und er sagt genau das selbe, dass es Leute aus seiner Herkunt gibt, , die keine deutsche mögen. Auch ich kenne das Thema schon seit der Grundschule. Ich denke einfach, es liegt an der Erziehung. Ausländer fühlen sich untereinander wohler und dazu kommt aber noch, dass sich und das muss ich auch sagen, immer mehr deutsche den Ausländern anpassen um *cool* zu sein wie sie. Deswegen sagt mein bester Freund immer zu mir, es gibt wenige stabile Deutsche wie mich, die einfach sind wie sie sind. Und das gleiche ist bei ihm auch so. Er macht auch keine Unterschiede.
hör dir mal das Lied Alman von Cashmo an. Er erklärt dort einiges wovon manche immer die Augen zu machen :) es gibt alles, nur nichts negatives gegen deutsche, das sind deren Argumente 🫠
dass es Leute aus seiner Herkunt gibt, , die keine deutsche mögen
und deutsche die manche Türken nicht mögen. Und Türken die manche Türken nicht mögen. Und deutsche die manche Deutschen nicht mögen.
so what?
Ausländer fühlen sich untereinander wohler
Serben und Kroaten fühlen sich untereinander wohler? Türken fühlen sich wohler mit Griechen?
sicher nicht.
Kenne ich. Das ist halt deren Nationalstolz. Zudem sind die Deutschen international generell einfach nicht beliebt - zu weich, zu kaltherzig, zu akribisch. Man schreibt Deutschen im Vergleich zu anderen Nationalitäten halt eher negative Eigenschaften zu und das festigt sich in den Köpfen der Menschen und wird schlimmstenfalls tatsächlich von wenigen Deutschen, die so drauf sind, bestätigt. Anders herum ist es genau so. Es haben ja auch viele Deutsche ein negatives Bild gegenüber Ausländern und wenn dann eine Handvoll Ausländer diese Klischees tatsächlich erfüllt ist das Bild schon gefestigt.
Das Problem an der Sache ist halt die mangelnde Integration. Ausländer hocken unter sich und fühlen sich stolz, dass sie anders sind - möchten also gar nicht Teil unserer Kultur sein. Die Deutschen fühlen sich dann hintergangen und meiden Ausländer ebenfalls. Ein Teufelskreis.
Um konkret deine Frage zu beantworten: je nach Land und Kultur haben die Menschen in ihren Ländern gelernt selbstbewusst, dominant und stark zu sein. Das war und ist die Erziehung dort. In Deutschland und generell im Westen sind die Menschen freier, man muss als Mann nicht typisch männlich sein. Daher sind wir logisch betrachtet in ihren Augen schwach. Wer will also freiwillig in eine Kultur der Schwachen leben - außer um sie ausnutzen zu wollen?