Als Junge wollte ich immer in die USA reisen, und alles was das Land bietet zu erkunden. Jetzt wo ich etwas älter bin wurde mir klar wie krass gefährlich dieses Land eigentlich ist. Ich sehe Haufen von Videos im Internet, von Entführungen bis 🔪angriffen und immer passiert das im selben Land nähmlich USA.
Was haben sich überhaupt Deutsche gedacht dort auszuwandern, und ich frage mich wie dort überhaupt Menschen leben können vor allem wie in Kalifornien, Texas und Florida. Allein wie viele Amokläufe dort jährlich passieren und M*rde ca. 16.000 jedes Jahr, ist garnicht in Worte zu fassen. Solche Gräultaten in Europa sind mir unvorstellbar