Bezeichnet das Wort "Amerika" das gleiche wie der Wort "USA"?

13 Antworten

Das wäre / ist schlicht falsch, auch wenn "Amerika" und "USA" oft synonym verwendet werden.

Schließlich wurde mit Amerika der Doppelkontinent - schon lange vor der Gründung der USA - so genannt !

pk

TestBunny  09.10.2017, 08:44

Du hast die Frage eindeutig nicht verstanden.

0
paulklaus  09.10.2017, 10:43
@TestBunny

NÖ, denn die Frage ist, ob USA und Amerika das Gleiche seien. Und darauf habe ich konkret geantwortet !

pk

0

Genau genommen nicht. Die USA sind ein Teil des amerikanischen Kontinents.

Aber wenn man einfach (umgangssprachlich) sagt: "ich fliege nach Amerika" dann meint man schon die USA. Wenn man nicht in die USA fliegt, sondern nach Kanada oder Brasilien, sagt man eher nicht: "ich fliege nach Amerika."

Ich denke mir, es spricht ein wenig für die US amerikanische Überheblichkeit. Trump sagt ja selbst: "I make America great again." Und er meint damit sicher nicht auch Mexico, Chile oder Argentinien.

Ich fürchte, die US-Amerikaner sehen sich selbst einfach als Amerikaner. Dass da noch jede Menge anderer Völker auf dem Kontinent leben, ist ihnen sicher eher wurscht. We make Amerika great again. 

Ja. ja...

Nur in der Umgangssprache.

Geografisch und wissenschaftlich enthält "Amerika"  viel mehr als die USA, nämlich :

ganz Nordamerika (einschl. z.B. Kanada)

Mittelamerka (einschl. z.B. Kariibik)

und Südamerika.  (einschl. . z.B. Brasilien)

paulklaus  06.10.2017, 20:21

Siehe meine Antwort !

pk

0

USA United States of America, Vereinigte Staaten von Amerika. Und damit ist eigentlich Nordamerika gemeint.

Amerika gibt's Nord- und Südamerika. (Kontinent)

MaryLynn87  05.10.2017, 08:33

Du hast Kanada vergessen. Das gehört auch zu Nordamerika aber nicht zu den USA.

1

Nicht zwingend, aber meistens.
Amerika kann auch für den Kontinent oder für die verschiedenen Länder dort stehen.