wie wichtig ist arbeit in deutschland?

...komplette Frage anzeigen

5 Antworten

Menschen, die nicht arbeiten, obwohl sie körperlich dazu in der Lage wären, werden mit der Zeit krank. Es ist wichtig im Leben eine Aufgabe zu haben egal ob es viel oder wenig Geld einbringt. Es geht um die Regelmäßigkeit und den Kontakt zu anderen Menschen. Es sollte für jeden von uns völlig normal sein, arbeiten zu gehen. Menschen mussten schon immer arbeiten um zu überleben, selbst in der Steinzeit mussten die Menschen jeden Tag aufstehen und etwas tun, um abends etwas zu Essen zu haben.

Das stellst du vielleicht fest, wenn du Brötchen holen willst, aber der Bäcker nicht arbeitet.

Oder in ein Cafe willst, aber dort geschlossen ist, weil niemand arbeitet... hin kommst du sowieso nur zu Fuß, weil weder Bus noch Bahn fährt, und auch Tankstellen geschlossen sind. Taxifahrer arbeiten auch nicht.

Oder zum Arzt musst, dir im Einzelhandel was kaufen willst, dir was bestellst, aber niemand liefert...

usw...

arbeit ist teil vom grundgerüst auf dem dieser staat aufgebaut ist. 

"alle die ich kenne waren noch nie arbeiten"

Wie bitte? Ich hoffe mal, die sind alle noch in der Schule...

wurzlsepp668 16.09.2017, 14:56

Fragesteller ist ein Troll ......

bzw. er bzw. sie kennt anscheinend nur sich selber ...

2

du lügst!

nachdem du am Freitag frtistlos gefeuert wurdest arbeitest du ebenfalls nicht ......

aber ansonsten reine Troll-Frage

Was möchtest Du wissen?