Hat sich Deutschland in den letzten Jahren zum positiven oder negativen entwickelt?

Negativ 83%
Positiv 17%

29 Stimmen

Karlfragt1  22.03.2025, 20:49

Wer ist auf deiner Straße gestorben?

ManuelPalmer 
Beitragsersteller
 22.03.2025, 20:50

Biodeutsche

Mhmhmhm8  22.03.2025, 20:50

Was ist denn Biodeutsch?

ManuelPalmer 
Beitragsersteller
 22.03.2025, 20:52

Jemand dessen Angehörige bereits in der Zeit vom Onkel Adi auf deutschen Hoheitsgebiet gelebt hat

3 Antworten

Negativ

Rechtsextremismus wird in Deutschland (In der Politik und in der Gesellschaft) wieder normalisiert. Nicht besonders positiv.

"Biodeutsch" ist übrigens ein ekelhaftes Wort, welches einfach nur zu Ausgrenzung und zu Rassismus führt.


Negativ

Deutschland hat sich mit der jetzt scheidenden Regierung äußerst negativ entwickelt. Oft hatte man den Eindruck, dass die drei Koalitionspartner so taten, als es ginge nur um sie und nicht um das Volk, das sie gewählt hat. Die Ergebnisse waren dann so furchtbar, das Deutschland, International, in die Bedeutungslosigkeit ab gefallen ist. Die letzte Regierung hat Deutschland regelrecht ruiniert. Man kann nur hoffen, dass die neue Regierung es besser macht, obwohl ich da auch nicht ganz sicher bin.

LG von Manfred


ManuelPalmer 
Beitragsersteller
 22.03.2025, 21:42

Habe das ungute Gefühl dass es dem Merz nur um seine eigene Karriere geht

Negativ

Seit 2015 massiv bergab, davor aber schon ebenfalls bergab, nur langsamer