Ist das Leben in Deutschland nicht lebenswert?

7 Antworten

Vom Beitragsersteller als hilfreich ausgezeichnet

Wenn man das Geld hat würde auswandern gut sein. Denn in Deutschland werden mehr Gesetze gegen den Bürger von der Ampel gemacht, Heizungsverbot, Smart Meter Einbau Pflicht, Grill Verbot, Neue Grundsteuer usw. Natürlich werden die Sanierungsmaßnahmen und Grundsteuer dazu führen, dass die Kosten vom Vermieter auf den Mieter umgeleitet werden und die Miete teurer wird. Und Eigenheimbesitzer müssen die Kosten alleine tragen.

Es ist immer genau so lebenswert, wie DU DEIN Leben gestaltest.

Es hängt daher massiv von Deiner Psyche und Deiner Lebenseinstellung ab, ob Du dem Leben etwas abgewinnen kannst, oder nicht.

Mit "Deutschland" selbst hat das schon mal gar nichts zu tuen. Denn es gibt KEIN EINZIGES LAND in welchem alles ideal ist und alles so, wie es sein ssollte. Und selbst wenn dem so wäre: Dann wäre das Leben dort langweilig bis zum Erbrechen.

Woher ich das weiß:eigene Erfahrung – Menschlichkeit ist mein persönlicher Grundsatz!

Ich gebe Dir einen guten Rat und man wird auch noch fit dabei

Krieg den Arsch hoch

Geh auf YouTube

Handwerker Videos

Renovier und Bau um und vermiete die Wohnung

Zieh es durch

Hör auf zu jammern

Zumindest kannst Du in Deutschland beim Psychodoc die Schrauben wieder anziehen lassen. Kostenlos.....


KnowledgeLover2 
Beitragsersteller
 26.05.2023, 13:03

Ist nicht kostenlos.

Du kannst nicht vor dem weglaufen was in dir steckt.

Dein Problem ist nicht das Land sondern deine Psyche.


KnowledgeLover2 
Beitragsersteller
 26.05.2023, 13:02

Klar. Die deutsche Art hat mich krank gemacht. Die meisten sprechen nicht mit einem. Graues Wetter. Pessimismus. Konservative Gedanken. Kein Risiko nur Angst