Stimmt es dass es nach der Schule noch schlimmer wird?

22 Antworten

Schlimmer wirds für jeden, der nicht bereit ist, etwas zu leisten und denkt, man würde ihn sein Leben lang von vorn bis hinten bedienen.

Freu Dich!

Ich hab die Schulzeit gehasst. Ich hatte auch Jobs, die ich gehasst habe, aber man hat halt einfach mehr Möglichkeiten, zu wechseln, wenn es einem total stinkt.

Ich fand die Schule schon nicht schlimm und die Arbeitswelt auch nicht.

Allerdings nimmt Dich halt nach der Schule keiner mehr ans Händchen und bemüht sich um Dich. Da musst Du halt eigenverantwortlich arbeiten.

Außerdem bist Du dann auch selbst dafür verantwortlich, Deine eigene Existenz zu sichern - was Du jetzt nicht hast.

Sie das nicht so negativ! Es ist dein Leben, also gestalte es spaßig, egal ob in der Schule oder auf der Arbeit! Es ist nicht immer alles so anstrengend, egal, was die anderen sagen. Du schaffst das schon! Stay Strong! :)

Eleni007  11.02.2020, 15:33

*Mit "sie" meinte ich natürlich "sieh", die Vergangenheitsform von "sehen" :)

2

Kommt darauf an. Ich vermisse manchmal die Tage an denen ich in die Schule gehen konnte, das stimmt.

Aber ich würde nicht sagen, dass es "schlimmer" geworden ist. Es ist halt einfach anders. Ob es schlimm ist oder nicht, dass muss jeder für sich selber entscheiden. Kommt auch darauf an ob er den Beruf gerne macht den er ergreift oder ob er sich zwingen muss zur Arbeit zu gehen