Frage von kiser1717, 52

Was bedeutet die Aussage: das vereinigten staaten von Amerika sind das Produkt der europäischen Aufklärung?

Antwort
von Utopiosus, 23

Die Aufklärung (so im 18. Jahrhundert) haben nichts mit der Entdeckung (1492) von Amerika zu tun.

Die amerikanische Aufklärung erfolgte 1776 mit der amerikanischen Revolution (vgl. Boston Tea Party, u.ä.).
Aber Einfluss auf die bis heute geltende Verfassung (1787 Unabhängigkeitserklärung) wird sie wohl gemacht haben.

Pursuit of happiness entspricht zum Beispiel dem hedonistischen Gedanken dessen, was Aufklärung mit sich birgt: Freude. 

Mit der Doktrin Manifest Destiny breitete sich Amerika aus und es gelang den Staaten mit dem amerikanischen Bürgerkrieg (Sezessionskrieg) 1861-65 die Befreiung der Sklaven - was für mich das Event ist, was am meisten mit der Aufklärung zu tun hat.

Insofern kann man durchaus von einem "Produkt" sprechen, ja. 

Expertenantwort
von ArnoldBentheim, Community-Experte für Geschichte, 4

Ich gebe dir einen Tipp: Federalist Papers ( https://de.wikipedia.org/wiki/Federalist_Papers ).

MfG

Arnold

Antwort
von thetee99, 25

Die "Epoche" der Aufklärung um z. B. Emanuel Kant hatte ca. Anfang 1700 begonnen und sollte durch rationales Denken alle, den Fortschritt einschränkende Umstände abbauen.

Diese humanistische und liberale, sich schnell verbreitende Denkweise gab den Impuls für die französische und amerikanische Revolution, die dann 1776 zu den vereingten Staaten von Amerika führte.

Antwort
von andreasolar, 16

Schau mal hier:

https://de.wikipedia.org/wiki/Amerikanische_Revolution#Beeinflussung_durch_europ...

Antwort
von muelli21, 25

das zitat ist in meinen augen etwas fragwürdig von der aussage an sich. aber dennoch: früher war die kirche regler von allem. sie war quasi legislative, judikative und exekutive. irgendwann begannen die menschen jedoch das ganze zu hinterfragen. das war die zeit der aufklärung. ees entstanden wissenschaftliche theorien, es wurde geforscht und gott und die kirche wurden in frage gestellt. da die united states ja mehr oder weniger von siedlern aus europa errichtet wurden kann man also sagen, dass die aufklärung mit dem drang etwas neues zu entdecken und zu forschen dazu geführt hat, dass siedler nach us kamen und da das errichtet haben was wir heute kennen, zum leidwesen der "indianer".

so würde ich das verstehen

Antwort
von LeBonyt, 7

An der Person des Franzosen Marquis de La Fayette kann man sehen wie aufklärerische Gedanken in die Staatskonzeption der USA  mit eingeflossen sind.

Antwort
von JBEZorg, 2

Andersherum. Die Europäische Aufklärung ist das Produkt des selben Gednkenguts/Ideologie/Doktrin, die auch Grundlage für die Gründer der USA war.

Antwort
von DesbaTop, 12

Amerika wurden ja angeblich von den Europäern entdeckt. Waren zwar erstmals die Wikinger, aber das wird totgeschwiegen.

Ist auch egal, jedenfalls begannen die Europäer im Zeitalter der Aufklärung (Man fing an Kirchliche Grundzüge zu hinterfragen und stellte selbst Forschungen an) um die Welt zu segeln und neue Inseln/Länder/Kulturen/Kontinente zu erforschen. Dabei stießen ein paar Europäer ausversehen auf Amerika.

Die Europäer kamen zahlenweise dorthin, weil es dort hervorragende Grundstoffe gab. Das war quasi der Grundstein für die Entstehungsgeschichte der USA.

Die heutigen USA gibt es also nur, wegen dem Zeitalter der Aufklärung in Europa. Das soll diese Behauptung aussagen.

Kommentar von thetee99 ,

Eigentlich ist es heute doch allgemein anerkannt, das Leif Erikson als erstes auf Amerika gelandet war. Trotzdem waren es auch Europäer, da die Wikinger hauptsächlich skandinavische Völker waren, aus Dänemark, Norwegen, Schweden.

Im Gegensatz zu Columbus, haben es die Wikinger aber wohl nicht auf die selbe Weise katografiert, oder sind zurückgesegelt um davon zu berichten.

Keine passende Antwort gefunden?

Fragen Sie die Community

Weitere Fragen mit Antworten