Ich finde es macht garkein Sinn als Ausländer sich zu integrieren hier.
die Deutschen sind unfassbare Rassisten, die werden eh niemals Ausländer akzeptieren.
nicht mal dann, wenn ein Ausländer auf dem Oktoberfest mit Lederhose ein Bier trinken würde. Selbst dann würden die sagen „ was will der Ausländer hier.“
es gab auch vor einigen Monaten ein Artikel was beschrieben hat das Europaweit Deutschland und Österreich das größte rassimus Problem hat.
häufig kommt dann „ ja dann geh doch wo anders hin wenn Deutsche so schlimm sind.“
Man hat sich das nicht ausgesucht wo man geboren und aufgewachsen ist.
das klingt immer so einfach wenn man sagt „ Ich wandere aus.“
Aber in der Realität steht Man dann vor vielen Schwierigkeiten. Man kann die Sprache dort nicht, man kennt sich nicht aus, man hat kein Netzwerk dort, man weis nicht ob das eigene Wissen/skills dort was wert ist, man kennt die Werte dort nicht und vieles mehr.
da ist es viel einfacher, einfach in Deutschland zu bleiben und die Deutschen so gut es geht zu meiden. Man bleibt einfach unter sich und muss so nicht mit den rassisten sich rumschlagen und kann trotzdem die Vorteile genießen in einem Land geboren und aufgewachsen zu sein.
wie sieht ihr das?