In Amerika Leben.. is alles wirklich so wie in den Filmen?

23 Antworten

Nein - Film und Leben sind zweierlei. Sogar Dokumentarfilme zeigen alles nur aus den Augend es jeweiligen Betrachters.

Ich war schon lange in den USA, mußte aber noch einmal nach Deutschland zurück. Und jetzt bin ich endgültig hierher zurück gekehrt.

Weil in Deutschland vieles nicht mehr so läuft, wie es laufen sollte.

Aber auch hier ist bei weitem nicht alles Gold, was glänzt!

Aber nachde ich hier mit meinen langjährigen Freunden meine eigene Firma betreibe, geht es mir wirlich gut - besser als es in Deutschland sein könnte. Denn hier wird Leistung anerkannt - egal welche, egal von wem.

Es gibt viel Luxus und Reichtum - aber noch mehr Elend - aber diese "Schere" öffnet sich auch in Deutschland immer weiter, gefördert von einer kaum noch nachvollziehbaren Politik, die nur noch klientelorientiert ist. Gut, viel jammern, obwohl es ihnen eigentlich noch recht gut geht. Hier jammert man weniger, sondern packt eher an - der Staat ist weiter weg mit Hilfe. Dafür die "Nachbarn" meist näher.

Das ganze Land selbst ist fantastisch (auch Deutschland, natürlich) und endlos weit und endlos vielfältig.

Die Menschen? Mit denen komme ich in den meisten Fällen besser zurecht, als in Deutschland.

Viele Informationen und Wissenswertes zu Land und Leuten erfährst Du auf

www.magazinusa.com

Ansonsten Grüße aus dem Land der (fast noch) unbegrenzten Möglichkeiten,

aus dem leider zur Zeit gar nicht so sonnigen California

das wirkliche leben hat weder in amerika noch sonst wo auf der welt was mit film zu tun


Djordjii  26.02.2011, 23:25

Schweiz ?

0
Djordjii  26.02.2011, 23:33
@mops09

:D Sry hab deine Antwort nicht richtig gelesen Aber Schweiz ist zum Leben nicht schlecht

0
mops09  26.02.2011, 23:36
@Djordjii

:) das ist ein anderes thema - und ja, da könnte ich mir auch vorstellen, mich niederzulassen ;)

0
kritiker111  27.02.2011, 16:14
@mops09

Man kann (fast) überall gut leben - wenn alles andere passt - ein guter Job oder eine gut gehende Firma sind da schon einmal gute Voraussetzungen.

Denn wenn Du Geld hast, kannst Du Dir auch die "Ecke" eines Landes aussuchen, wo es Dir gefällt und wo Du Dich wohlfühlst.

0

in den USA ist einiges anders, verlierst du dort deinen job (warum auch immer) hast du keinerlei versicherungen mehr, solltest du eine Operation brauchen bekommst du sie nicht, es sei denn du hast das geld zusammengespart. Viele amerikaner haben 2-3 jobs, weil sie so wenig verdienen, einen arzt sehen amerikaner auch kaum, eben weil viele sich keine krankenkasse/krankenversicherung leisten können. Es gibt auch viele obdachlose in den USA, Hartz4 oder etwas in der art bekommt man nur über maximal 1 1/2 jahre, dann kann man sehen wo man bleibt.

The land of the free... pff-.-

anders ja,aber die filme sind ehh nur gespielt,nur manche filme zeigen die wahrheit

Hey :)

Da ich bis vor 6 Jahren in Amerika gelebt habe, kann ich dir sagen - nein. Es hat schöne Seiten, wie die Natur, aber es gibt Schattenseiten. Zum Beispiel bin ich mit der Regierung nicht ganz zufrieden.

Den "American Dream" zu leben ist eine Illusion, sorry to tell you 🥹

In Amerika sind die Menschen auch Menschen, haben zwar andere Kulturen und Angewohnheiten, aber im Herzen sind wir alle nur Menschen.