Ist Deutschland wirklich so ein schlimmes Land wie es oft gesagt wird?
Besonders Richtung Rechts, Rechtsextrem, AFD ect meint dies und nimmt Polen und Ungarn als Beispiel für Perfekte Länder
Ist das wirklich so?
Ich selber fühle mich in Deutschland sehr wohl
Mich kotzt nur die Mentalität einiger Deutschen an.
Diese besteht in meinen Erfahrungen aus Gemecker über alles, Fremdenfeindlichkeit, Hass, Neid, Missgunst und Luxusproblemen
Wie seht ihr das?
Ist Deutschland wirklich so ein schlimmes Land?