Wird Deutschland immer nerviger?
Überlege mir seit langem, dass mir die Leute, die Gesellschaft und die Medien hier einfach auf die Nerven gehen. Damit meine ich hauptsächlich die Einstellung zum Leben und dieses ständige Drama um nichts und first world problems. Ich denke wirklich oft: Haben die Leute nichts besseres zu tun? Und wieso muss man gefühlt ständig von irgendwem eines besseren belehrt werden? Damit meine ich die ganzen Öko- und politische Korrektheitsschiene. Mir scheint, als hätte sich das Leben in D einfach vom Rest der Welt entfernt.