Lohnt sich Arbeiten in Deutschland?

10 Antworten

In der "Fleischbranche" z.Zt. vielleicht nicht.

Allgemein lohnt sich das Arbeiten aber schon um seinen Lebensunterhalte bestreiten zu können. Es soll sogar welche geben die besser als andere leben können durch Arbeit.

Ja nach Ausbildung oder Studium kann es sich lohnen. Aktuell gibt es noch keine Einheitsrente und so ist es nicht nur der Augenblick sondern auch die Zukunft.

Natürlich ist die Betrachtung als Single anders als bei einem Familienvater..... aber man möchte sich ja auch mal was leisten.

Ohne Job, wird es auch schwieriger zu einem späteren Zeitpunkt einen zu bekommen.

Viele sind nicht der Ansicht, daher geben sie sich auf und sind mit Harz 4 zufrieden.

Das ziehen die dann ihr Leben lang durch.

Ich gehöre nicht zu denen.

Woher ich das weiß:eigene Erfahrung

Ja, wenn man nicht gerade als Ausländer für einen ausbeuterischen Subunternehmer arbeitet. Die Löhne sind hoch und die Lebenshaltungskosten sind relativ niedrig.

Naja als Hilfsarbeiter zum Mindestlohn im Schichtdienst nicht.

Glücklicherweise haben die meisten deutschen eine Berufsausbildung und verdienen deutlich über Mindestlohn