Warum wird Deutschland, die Kultur in unserer Region und alles was Deutschland ausmachte und ausmacht nicht mehr gepflegt oder geschätzt?
Früher war Deutschland eine führende Nation auf fast allen Gebieten. Technik und Wissenschaft. In vielen Ländern Europas hat man Deutsch gelernt.
Wenn man sich Deutschland heute anschaut sieht man in vielen Bereichen, dass eine Rückentwicklung stattgefunden hat. Früher hatten Menschen Ideale für die sie brannten, man hat das beste aus dem Menschen und aus dem Land rausholen wollen. Es gab Ideale. Man hat an sich und seiner Umwelt akribisch gearbeitet.
Schaut man sich heute Deutschland und die Menschen an ist quasi alles "amerikanisiert". Man will englischen Slang übernehmen. Sagt in jedem zweiten Satz "Bro" oder "Digga" und konsumiert viele US-Medien wie Netflix, die weder Körper noch Geist fördern.
Ab einem Zeitpunkt ist Deutschland nur noch den Bach runter gegangen.
Warum ist das so?
Man hat heute nicht mehr das Gefühl, dass irgendwas an dem Land noch deutsch ist sagen meine Großeltern. Die meinen, dass sich ihre Eltern wenn sie noch leben würden im Grab umdrehen würden wenn sie das heutige Deutschland sehen würden.