Hitler Machte Deutschland besser?

7 Antworten

Vom Fragesteller als hilfreich ausgezeichnet
Ich hatte grade ein kurzes Gespräch mit jemand der meinte das Hitler Deutschland super schön und toll gemacht hat

Nunja, wer Ruinenoptik, Hunger, Millionen Tote, Vergewaltigungen und sonstiges Elend mag, der wäre damals auf seine Kosten gekommen! 🙄

Offensichtlich ist dein "jemand" historisch völlig ungebildet - oder ein dummer Neonazi, der die historischen Realitäten verleugnet!

und die Politiker jetzt sind alle Müll

Also entbehrt dein "jemand" auch jeglichen politischen Wissens und Urteilsvermögens? Nun, das wundert mich nicht.

was kann man zu dazu sagen um seine Meinung zu entkräftigen

Nichts. Dieser "jemand" ist mutmaßlich ideologisch verblendet, nicht lernfähig oder lernwillig und ein hoffnungsloser Fall.

ich selbst bin mir nicht sicher ob Hitler Deutschland wirklich besser gemacht hat

Dann solltest du erst recht nichts sagen, denn du scheinst deinem "jemand" nicht viel voraus zu haben.

Aber wenn du lernen willst, dann kann ich dir folgende Empfehlungen geben:

Woher ich das weiß:Studium / Ausbildung – Ich arbeite als Historiker.

Für so etwas braucht man keine Argumente. Das muss man auch so wissen. Einfach Abstand

Deutschland lag in Schutt und Asche. Was soll daran besser gewesen sein?

Schau dir den Zustand Deutschlands im Mai 1945 an. Das war Hitlers Politik.

Absolut! Deutschland sah nie besser aus als am 8. Mai 1945!

Rheinflip  01.05.2024, 21:58

Wenigstens waren die Nazis kurz eingeschüchtert

0