Mir wird immer wieder von jeden gesagt das der Winter schön ist und sie sich auf den nächsten Winter freuen. Der Sommer wird von so vielen gehasst. Ich würde gerne wissen warum? Für mich ist der Winter einfach das schlimmste was es gibt. Ich empfinde den Winter also tot, alles grau und ohne Farben, ohne Vögel, ohne das grün und die Sonne die ich brauche, wie im Knast oder so. Es scheint nie die Sonne und ich bekomme Depression. Man muss mur drinne hocken und man wird ständig krank (ich jedenfalls) Man muss dicke Kleidung anziehen und seinen ganzen Körper bedecken. Eingeschränkte Bewegungsfreiheit, ich komme mit vor als wenn ich in dicker Kleidung ersticke. Die Kälte nicht zu vergessen, ich bin da immmer wie ein wandelndes Wrack. Auch muss ich meine ganzen Tätigkeiten einschränken oder warten bis es wärmer wird.
Wie sieht ihr das? Gibt es wirklich so viele Menschen die das wollen?