Wenn ein Land einen Krieg gewinnt, darf es dann stolz darauf sein?

...komplette Frage anzeigen

6 Antworten

Ich finde diese ganze Sache mit "im Krieg gewinnen" bedenklich. Das ist ja kein Football-Spiel. Zudem gab es genügend Kriege, in denen beide Seiten erhebliche Verluste davon getragen haben.

Die Menschheit sollte sich nicht darauf konzentrieren, "Kriege zu gewinnen", sondern Probleme möglichst gemeinsam zu lösen. Und es gibt sehr viele Probleme, Kriege schaffen nur zusätzliche.

Ja der amerikanische Patriotismus....der Stolz ist da verankert...man ist schon auf etwas stolz bevor man weiß auf was man eigentlich stolz ist - ob es moralisch ist, wenn man auf gewisse Taten stolz ist...ist wohl eher fragwürdig.

Sie dürfen es natürlich, keiner kann das verbieten - das war ja deine Frage.

Ja dürfen sie.

Und Vietnam war zwar auf dem Papier eine Niederlage, aber in der Realität haben sie gewonnen. Natürlich hatten auch de Amerikaner Verluste erlitten, aber sie haben nur Geld und bedauerlicherweise einige Soldatenleben verloren. 

Vietnam hingegen wurde vollständig zerstört, die Industrie und Wohlstand eines ganzes Landes für Dekaden vernichtet und es leidet bis jetzt noch unter der Tatsache das sie sich auf ein Krieg mit Amerika eingelassen hatten. 

Amerika hingegen hatte bis auf die sich vermehrenden pazifistischen Bewegungen und einen großes Loch während der Kriegszeit in ihren Staatshaushalt keine weitere langfristigen Verluste zu beantragen.

thecheeky 12.08.2017, 22:17


...und es leidet bis jetzt noch unter der Tatsache das sie sich auf ein Krieg mit Amerika eingelassen hatten. 

Was für ein Weltbild hast du dir denn gebastelt? Deiner Meinung nach hätte sich Vietnam wohl nicht auf einen Krieg mit den USA einlassen sollen?!  Böses Vietnam! Hat sich auch noch verteidigt. Schande aber auch!!!

2
IIZI9I5II 12.08.2017, 23:33
@thecheeky

@cheeky

haha dachte ich gerade auch...ist so wenn man sagen würde....die polen und franzosen haben es mit hitler zu weit getrieben.... :D

@Karina

die tapferen Vietnamesen haben sich nur verteidigt und amerika hat auch in der Realität verloren, ich verstehe nicht wie man das als Sieg bezeichnen kann, letztendlich haben teilweise Bauern mit alten Gewehren die Amerikaner nach 10 langen Jahren besiegt.

2

Es waren die Alliierten die die beiden Kriege gewonnen haben, allen voran die USA.Deutschland hat nach dem Krieg sehr viel Hilfe von den USA erhalten.

thecheeky 13.08.2017, 08:03

allen voran die USA

Die haben erst eingegriffen, als alle Messen schon gesungen waren.
Aber was man nicht wissen will, gibt oder gab es nicht!!!

1
lifefree 13.08.2017, 09:21
@thecheeky

Am 08.12.1941 erfolgte der Kriegseintritt der USA gegen Japan, im gleichen Monat gegen Deutschland, nachdem Deutschland und Italien den USA den Krieg erklärt hatten.

0

Mit was genau reiben sie uns das unter die Nase?

Haben die USA den 1. & 2. Weltkrieg alleine gewonnen?

Nein!

ich weiß nicht woher ihr immer diese Verallgemeinerungen habt. USA reiben es immer unter die Nase.

Ich reise seit 1970 regelmäßig in die USA, habe viele Freunde dort und noch viel mehr Bekannte, von denen hat es mir noch nie jemand unter die Nase gerieben oder auch nur erwähnt.

Seit 1981 bin ich sehr viel beruflich in den USA, von diesem "unter die Nase reiben" hat noch nie jemand geredet. 

Über die Niederlage in Vietnam sind sie sich sehr bewusst.

Was möchtest Du wissen?