Man hört und liest, Deutschland sei womöglich auf dem Weg in die Verarmung. Besteht diese Warnung zu Recht?

7 Antworten

Vom Beitragsersteller als hilfreich ausgezeichnet

Ja, die Warnung muss man ernst nehmen, habe ich auch gehört und gelesen, wenn die AfD das Steuer übernimmt, wird Deutschland verarmen.

Wirtschaftspolitik: Institut der deutschen Wirtschaft warnt vor Folgen von AfD-Politik | ZEIT ONLINE


verreisterNutzer  16.02.2024, 20:50

Keine Angst in ein paar Jahren ist nichts mehr da, das man noch zu Grunde richten kann.

Weiß ich nicht.

Wäre aber doch auch letztlich egal.

Würde Deutschland verarmen, bekäme es sicherlich die Hilfe der Weltgemeinschaft.

Nach dem Motto:

Wer geben kann, gibt, wer Hilfe braucht, kriegt welche.

Oder ?


Neuhier314  16.02.2024, 19:09

Das wäre tatsächlich so, ja, da wir von unseren Verbündeten Aufbaugilfen bekommen würden, um eine starke Wirtschaft aufzubauen.

Man hört und liest :D

Also ich hör und lese das bisher nirgends außer in deiner Frage.


Natürlich nicht.

Woher ich das weiß:eigene Erfahrung

Wenn es so weiter mit der Rezession geht, könnte das Land stufenweise verarmen. Zuerst natürlich die "untere Schicht".


Koehlerlisl 
Beitragsersteller
 16.02.2024, 19:38

wirklich?