Warum sieht man so wenig Deutsche Flaggen in Deutschland?
Ich habe das Gefühl das die Deutschen den Stolz verloren haben in den letzten jahrzehnten. Ist es Peinlich Deutscher zu sein? Oder warum verneinen die meisten das sie es sind. Ich würde es schön finden wenn man mehr Fahnen sieht auch wenn keine Fussball WM/EM ist, ohne gleich als rechts angesehen zu werden.
Geschichte,
Deutschland,
Politik,
Kultur,
Ausländer,
Rassismus