Was haltet ihr von den USA?
8 Antworten
Die haben uns viele Jahrzehnte relativen Frieden und Wohlstand gewährleistet. Das wird heute gerne mal vergessen.
Ansonsten, was soll man davon halten, es ist so weit weg.
Die machen ganz gute Filme, Coca Cola ist auch nicht schlecht, usw. usf...
finde es toll wie sie stolz auf ihr land sind und ständig die fahne schwingen während in Deutschland du dafür eine anzeige bekommst ^•^
Echt? Noch nie davon gehört.
ist halt krass das hier gleich als nazi gilt deswegen oder Probleme bekommt.
Aus den USA kommt doch diese Woke Ideologie. Aber es kommt natürlich darauf an, wo man wohnt. In der Großstadt kann es zu Problemen kommen. Auf dem Land oder in kleineren Städten nicht.
Ja gut aber das mit den fahnen ist was anderes. du darfst ja auf nichts stolz sein sonst kommst du gleich in die nazi ecke, das ist in den usa nicht so.
Bei Linksextremen schon. Es war ja auch eine Zeit lang en vogue, bei der Nationalhymne zu knien.
Zu der USA kann ich mir nicht wirklich eine Meinung bilden.
Ich meine, sie sind sehr weit weg von uns, haben aber schöne Orte, aber ein beschissene Gesundheitssystem. Zu der Schulbildung kann ich nicht viel sagen, aber das was ich so mitbekommen habe ist nicht gut.
Aber dennoch, so um da Urlaub zu machen sicher Sehenswert. Und du?
Das was ich gut finde ist dass man dort mehr Platz hat und das nicht alles so gedrängt ist wie in Deutschland. Das gesundheitssystem und das mit den Waffen ist nicht so gut wie in Deutschland.
Auch das die USA gerne in den Krieg einmischt und Kriege anfängt finde ich nicht so sonderlich gut.
Bei landschaftlich ist es schön zum Leben wenn man erfolgreich ist.
Absolut nichts.
7veren⁷
Von wem?