Wie gut/schlech steht es um's deutsche Handwerk?

Das ist eine Frage, die mir schon lange durch den Kopf geistert. Um den Zustand des Handwerks ranken sich ja so viele Mythen. Mit Zustand meine ich generell die Arbeitslage für Handwerker aller Art. Ob Azubi, Geselle, Meister oder was es da noch so gibt.

Seitdem ich ein Kind bin höre ich immer, dass das Handwerk bald goldene Zeiten erlebt, gerade weil alle studieren wollen. Wenn ich ans Handwerk denke, denke ich aber oft eher an die Agenda Zeit zurück und das da besonders viele Handwerker in den Niedriglohnsektor gerutscht sind. Es wird ja immer gesagt, dass man da was solides lernt, aber für viele scheint das nicht so solide zu sein oder bekommt man nur die negativen Seiten mit?

Auf der einen Seite ist die Auftragslage super gut, aber dann wieder lese ich immer noch sehr oft über schlechte Bezahlung und schlechte Arbeitsbedingungen.

Aber wie ist denn die Realität nun? Ich gehe davon aus, dass man natürlich erst mal alles differenzierter betrachten muss?! Handwerksberufe gibt es schließlich viele. Auch gibt es sicherlich regionale Unterschiede und natürlich auch welche zwischen einem Meister und einem Azubi.

Aber wie sieht es nun in den einzelnen Berufen aus? Lohnt sich die Ausbildung? Kann man mit einzelnen Berufen gutes Geld verdienen oder verdienen nur die Betriebe? Sind Azubis immernoch der Depp vom Dienst (zumindest lese ich oft unter Videos, dass die sich stark über die Arbeitsbedingungen beklagen)?

Wie seht ihr Handwerker die Situation und was ist Schein und Sein, wenn über das Handwerk (bzw. eure Branche) gsprochen wird?

Handwerk, Deutschland, Ausbildung, Politik, Gesellschaft, Ausbildung und Studium, Beruf und Büro
4 Antworten
Haben Männer davor Angst ihre Privilegien zu verlieren?

Mir fällt in den letzten Jahren auf, dass wir (weißen) Männer immer öfter und mehr über Dinge klagen, die uns gar nicht betreffen.

Die Zigeunersauce soll also nicht mehr Zigeunersauce heißen und schon steht er da, der (weiße) Mann, der Sexismus und Rassismus eh für überbewertet hält, weil ihn das ja nicht betriff und es das daher auch gar nicht geben kann.

Frauen kämpfen für ihre Rechte auf der Straße und jetzt, wo sie nach Jahrzehnten ihre Erfolge feiern, steht er wieder da, der weiße Mann und beschwert sich, dass es für ihn keine Quoten gibt und im übrigen in schweren Berufen (Bauarbeiter, Straßenarbeiter) etc. auch keine Quoten für Frauen existieren.

Plötzlich fühlen sich Männer als Opfer einer sich wandelnden Gesellschaft. Überall die doofe political correctness und immer beschwert sich jemand, wenn man mal sagt, was man denkt.

Aber ist political correctness nicht nur eine andere Art zu sagen, dass heute auch andere Geschlechter, Hautfarben und sexuelle Preferenzen ihren Unmut äußern, so wie es (weiße) Männer schon immer getant haben?

Hab wir Männer also nur Angst? Kommen wir nicht damit klar, dass Änderungen sich heute nicht nur mehr zu unseren Gunsten ergeben? Oder wieso fühlt man sich so unfassbar gestört, wenn Saucen oder Süßigkeiten andere Namen bekommen, wenn Frauen Dinge bekommen, die Männern mal nicht hilft oder....?

Menschen, Deutschland, Frauen, Psychologie, Gesellschaft, Liebe und Beziehung, Philosophie und Gesellschaft
20 Antworten