Was magst du an Deutschland?
Ich mag es hier, dass man arrogant sein darf, da viele Deutsche arrogant sind und man hier nicht an diese "Gesellschaft" gebunden ist und man individuell sein kann.
Kann man auch als Nachteil sehen, wenn man konservativ ist.
In der Türkei ist man an der Gesellschaft gebunden und muss sich irgendwelchen Normen anpassen: Islam, Gastfreundschaft usw.
8 Antworten
Ich könnte gar nicht sagen, dass ich Deutschland als Land mag.
Das was ich an Deutschland mag, ist eher die Heimat, die es für mich ist.
Ich bin hier geboren, mir ist die Sprache vertraut, ich fühle mich durch die Gesetze eher geschützt als eingeschränkt und ich fühle mich hier materiell abgesichert.
- die soziale Absicherung
- dass man hier eigentlich alles notwendige bekommen kann
- dass man hier grundsätzlich frei seine Meinung sagen kann
- dass hier jeder politisch aktiv werden kann, wenn er es möchte
Ich liebe die wunderbare Geschichte, Kultur, Internetkultur/memes, Lebensweise und Werte Deutschlands. Dazu noch die Natur und die Freiheit.
Hmm arrogant? Puh... geh mal in die USA - you will love it :)
Oder auch andere Länder... also ich denke eigentlich nicht, dass sich Deutschland insgesamt durch Arroganz auszeichnet. Diese Arroganz hätte hier zumindest ein massives Fundament und ist nicht wie anderorts auf heißen Gasen gebaut.
Ich muss ehrlich sagen, ich weiß nicht was ich an Deutschland liebe oder ob ich überhaupt etwas liebe. Ich weiß, dass ich einiges hasse.
Aber was ich insgesamt liebe, ist es zu wissen, hier her zu gehören, weil ich einfach keinerlei anderen Bezug habe. Gar nicht abwägen zu müssen, weil ich mir vorstellen könnte oder gar wüsste, wie es wo anders ist.
Ich liebe es zurückzublicken und einzig und allein dieses Land zu sehen.
Nur das als Heimat zu kennen. Zu wissen, dass ich hier geboren wurde, hier leben und irgendwann, wahrscheinlich eher früher als später, sterben und begraben werde. Wie schon unzählige Generationen meiner Familie vor mir. Lange bevor es Deutschland oder auch nur den Begriff Deutsch gab.
Die große Frage die sich mir bei dieser Frage im Grunde stellt: Was assoziiert man mit Deutschland überhaupt? Das heutige Land? Die Kultur? Die Politik? Diese (moderne) Gesellschaft? Die Geschichte? Etwas ganz anderes oder alles zusammen?
Es stört mich sehr vieles und ich könnte nicht sagen was ich liebe oder ob ich überhaupt liebe, aber ich weiß, dass mich nicht so viel stört, als dass ich es in Erwägung ziehen würde, wo anders zu leben. Eher würde ich sterben.
Insgesamt: Ich liebe es hier in Deutschland meine Wurzeln zu haben.
Mir geht es hier sehr gut, auch wenn ich vieles kritisiere. Ich bin sozial abgesichert. Im Moment habe ich einen Job und eine Wohnung, also keine Existenzsorgen.
In meinem Leben läuft es gerade ganz gut. Klar ist man immer am Meckern, das ist normal.
Ich weiß gerade nichts, wo ich denke, wenn das besser oder anders wäre, wäre ich deutlich glücklicher im Leben.