Ich bin noch ein Kind, aber hatte in Deutschland immer dieses Gefühl, dass ich mich hier unwohl fühle in Deutschland. Täglich werde ich deprimiert von Deutschland, aber nicht nur Deutschland, generell Europa, vielleicht außer England. In diesem Land gibt es diese komische Kultur, wo man in den Wald geht mot der Schule oder ein Picknick in einem abgelegenem Park macht und dann in den Städten immer diese Kulturforen oder so. Besonders diese "Kiezkultur" und deutsche Städte finde ich generell sehr unangenehm. Ich bevorzuge die USA, denn dort gibt es Hochhäuser, riesige Straßen und große weite Flächen wo Reihen von Einfamilienhäusern sind. Es ist so aufregend und anziehend und moderner dort drüben.

Kennt das jemand auch?