Frage von Kingjames20, 69

Was hatte Franklin Delano Roosevelt gegen Hitler?

Ich stell mir die frage schon lange warum Amerika Deutschland angegriffen hat obwohl Deutschland nichts gegen Amerika gemacht hat ? Danke für die fragen im vorraus

Antwort
von Marcel89GE, 40

Anfänglich haben die Amerikaner auch sehr gut am europäischen Krieg verdient. Sie belieferten die Nazis, sowie die Russen. Dann breitete sich der Krieg aber auf Nordafrika, Asien und dem nahen Osten aus (Bis zu diesem Zeitpunkt war es noch kein Weltkrieg! Dieser begann erst mit Eintritt der USA). Zu diesem Zeitpunkt war Hitler z.T. gefeiert in den USA. Auf dem Cover vieler Magazine. Du musst wissen, dass ein großteil der amerikanischen Bevölkerung deutsche Wurzeln haben. Die Rassenlehre aus den USA nach Europa schwappte (dort natürlich auf einen weitverbreiteten Antisemitismus traf).

Der offizielen Lesart zur Folge war der Eintritt der USA durch den Angriff der Japaner (deutscher Verbündeter) auf Pearl Habor begründet. Dies bietete der Administration allerdings nur die Möglichkeit die amerikanische Bevölkerung für den Krieg zu mobilisieren. Die "Weltherrschaftsambitionen" der Amerikaner waren bereits vorher stark ausgeprägt und man konnte nicht abwarten und riskieren, dass Deutschland den europäischen Krieg gewinnt und sich neben den russischen auch die Ressourcen des nahen Ostens aneignet (gewaltsam oder durch Bündnisse).

Über den zweiten Weltkrieg kann man hundert Jahre reden und hat noch nicht alles gesagt.

Kommentar von Bswss ,

Dein Beitrag ist krass einseitiger, plumper Anti-Amerikanismus und hat mit den historischen Realitäten sehr wenig zu tun.  Aus der Tatsache, dass viele Amerikaner deutsche Wurzeln haben, zu schließen, dass Amerika im Prinzip hitlerfreundlich war(wie Du  dreist behauptest) , ist völliger Unsinn und eine Beleidigung des amerikanischen Volkes udn auch der vielen Juden, die im Lande lebten und leben. Die USA  haben für einen Krieg, an dem sie lange Zeit nicht beteiligt waren, 400 000 Soldaten verloren, um zu verhindern, dass England und Frankreich den Krieg verloren und dass ganz Europa unter der Diktatur Hitle.s  zu leben hatten.

Bist Du Linksaußen oder Rechtsaußen?  ("Les extrèmes se touchent", weiß man ja.)

Kommentar von Marcel89GE ,

Weder noch. Der Fragesteller bezog sich auf die Perspektive der Amerikaner. Natürlich war auch meine Antwort hauptsächlich auf amerikas Interessen bezogen.

Einen genauso kritisch-einleitenden Beitrag könnte ich auch über Russland, Deutschland sowieso, England, Japan etc. etc. verfassen. Aber das war und ist nicht Thema. Soll ich jedes mal einen 200-Seitiges Essay verfassen damit ich jedes Wort genau durch definiere?



Aus der Tatsache, dass viele Amerikaner deutsche Wurzeln haben, zu schließen, dass Amerika im Prinzip hitlerfreundlich war(wie Du  dreist behauptest) , ist völliger Unsinn

Das habe ich nicht geschrieben. Es gabe aber eine Vielzahl von wirtschaftlichen Beziehungen und regen wissenschaftlichen Austausch (wohl eher trotz Hitler). Befeuert natürlich durch deutsche Auswanderer in den USA die noch gut vernetzt waren. Natürlich rissen diese Verbindungen durch die Verbrechen und Taten der Nazis ab. Zu implizieren Amerika wäre zu jeder Zeit Hiterfeindlich gewesen ist genauso falsch wie die Behauptung die sie mir andichten wollen. Antisemitismus gab es zu dieser Zeit auch in den USA (Rassismus sowieso). Viele Ansichten der Nazis deckten sich mit denen einiger Eliten in der USA. Natürlich im anderen Ausmaß.



400 000 Soldaten verloren

Unbestritten. Als heute im befriedeten und nicht unter einer Diktatur leidenden Europa und Ehemann einer Südamerikanerin bin ich den Aliierten auch sehr dankbar für ihr Opfer.



um zu verhindern, dass England und Frankreich den Krieg verloren und dass ganz Europa unter der Diktatur Hitle.s  zu leben hatten.

Und genau hier sind wir vermutlich verschiedener Meinung. Natürlich hatte dies auch diesen positiven Nebeneffekt und war mit großer Wahrscheinlichkeit auch ein Hauptziel der Amerikaner. Aber nicht der einzige Grund der intervention. Auch hier gab es mehr Interessen. Nicht umsonst stieg die USA nach Kriegsende zur Weltmacht auf.


Die Geschichte war nicht Schwarz-Weiß.

Kommentar von Bswss ,

Ich stimme Ihnen in vielen Punkten durchaus zu, aber die USA waren doch nicht erst nach dem 2. WK Weltmacht! Schon 1918, spätestens aber in den frühen 20er Jahren  hatten die Vereinigten Staaten England als Weltmacht überflügelt. Die Engländer sonnten sich aber noch in ihrer Empire-Glanz und hatten noch nicht bemerkt, dass sie nur Nr. 2 waren (Einige Engländer halten ihr Land auch heute noch für eine Weltmacht.)  Ohne die massive Unterstützung der USA hätte Großbritannien in BEIDEN Weltkriegen ganz schlecht ausgesehen, wäre der 1. WK möglicherweise noch über Jahre fortgesetzt worden.

Kommentar von Marcel89GE ,

Da bin ich vollkommen d'accord mit Ihnen. Die USA war bereits vor dem II.WK ein "Bigplayer". Aber wie ich finde noch nicht absolutistisch in der Durchsetzungsfähigkeit. Mit der UN, der Nato, Leitwährung USD und der Weltbank wurde erst in der Nachkriegszeit amerikanische Macht zementiert (anfänglich nur im "Westen" natürlich). Bis auf den Ostblock gab es keine Macht mehr, mit der die USA sich hätte ausbalancieren müssen.

An der relativ explosionsartigen (wenn auch kriegerischen) Expansion des deutschen Reiches hat man ja das Potenzial von Mitteleuropa zur weiteren Supermacht gesehen.

Womit ich ja dann auch die aktive Intervention der USA in Europa in der Spätphase des Krieges begründe. Aus reiner Menschlichkeit ritt die USA z.B. in Mittelafrika nie ein um ethnische Säuberungen und Völkermord zu beenden (Auch wenn Hitlers industrielle Völkervernichtung natürlich zugegebenermaßen damit schwer vergleichbar ist).

Antwort
von luca1401, 16

Hitler erklärete den Amis den Krieg 3 Tage nach dem sie in den Krieg eintraten aufgtund von Pearl Habour

Antwort
von Ansegisel, 31

Das Deutsche Reich hat den USA den Krieg erklärt, nicht umgekehrt. (Nachdem die USA Japan nach dem Angriff auf Pearl Harbor den Krieg erklärten.)

Zum anderen gab es auch vor der offiziellen Kriegserklärung schon Kampfhandlungen zwischen der USA und dem Deutschen Reich. Deutsche U-Boote hatten mehrere us-amerikanische Schiffe versenkt, vor allem im Zusammenhang mit Angriffen auf alliierte Konvoys.

Und nicht zuletzt befand sich Hitler 1941 auf dem Höhepunkt der Macht und der militärischen Ausdehnung. Es war bis dahin offensichtlich geworden, dass der Krieg in Europa tatsächlich ein Weltkrieg würde, von dem früher oder später auch die USA in Mitleidenschaft gezogen werden würden.

Antwort
von derBertel, 26

Nun bleiben wir mal bei den Fakten.

Deutschland hat Amerika den Krieg erklärt, infolge des japanischen Angriffs auf Pearl Harbor. Begeistert war der Schnauzbart davon allerdings nicht. Es lag gar nicht in seinem Interesse, das die USA in den Krieg eintraten.

Antwort
von FragendesWeb, 35

Weist Du, was am 11. Dezember 1941 passiert ist?

Was der Roosevelt gegen Htler hatte, weis ich nicht.

Antwort
von Antraxxx, 51

 Amerika war im Krieg mit Japan ( Pearl Harbour) weil Japan behörte zu den Achsmächten Deutschland, Italien, Japan

ausserdem unterstützten Sie England. Allerdings unterhielt Amerika auch während des Krieges mit Deutschland noch Wirtschaftliche Beziehung mit uns.

Keine passende Antwort gefunden?

Fragen Sie die Community

Weitere Fragen mit Antworten