Lohnt es sich Abitur zu machen?

...komplette Frage anzeigen

8 Antworten

Es wird auf Dich ankommen und darauf, welchen Beruf Du ergreifst, ob Du mit Hauptschulabschluss und Berufsausbildung die gleichen (oder vielleicht sogar bessere) Aufstiegs- und Verdienstmöglichkeiten hast. Im Allgemeinen ist es jedoch schon so, dass die Chancen mit Abi besser sind, vor allem dann, wenn man einen Beruf erlernt und das Abi parallel dazu macht, oder wenn man an das Abi ein FH- oder Universitätsstudium anschließt.

Antwort bewerten Vielen Dank für Deine Bewertung

Aneignung von Wissen, und intellektuelle Qualifizierung lohnen sich immer. Ganz gleich was daraus mal entsteht. Das einzige was dir niemand auf dieser Welt wieder wegnehmen kann, ist das was du weißt . Die Chance auf ein Abi hast du wahrscheinlich nur einmal. Kann man zwar auch später noch nachholen, aber das ist dann meistens sehr schwierig mit der Lebensführung ,sprich Arbeit, Familie usw. in Einklang zu bringen.
Nimm mit was du kriegen kannst. Später würdest du dich vielleicht schwer ärgern. Wie lautete doch ein schönes deutsches Sprichwort ?
"Was Hänschen nicht lernt,lernt Hans nimmermehr."

Antwort bewerten Vielen Dank für Deine Bewertung

Ja, es lohnt sich Abitur zu machen, zum einen für deine Persönlichkeit und zum anderen wegen deinen beruflichen Chancen etc.

Antwort bewerten Vielen Dank für Deine Bewertung

Also ich denk ja, weil ich schon öfters von Erwachsenen gehört habe, dass man ohne Abitur heutzutage nicht mehr einen sehr guten Job erreichen kann bzw ist es einfach schwieriger als früher. Aber kp 

Antwort bewerten Vielen Dank für Deine Bewertung

Theoretisch kannst auch ne Ausbildung + Fachabi machen und dir dann n Studiengang suchen, der aber zu deinem Fachabi passen muss.

Antwort bewerten Vielen Dank für Deine Bewertung

Mach Abi dann kannst du studieren

Antwort bewerten Vielen Dank für Deine Bewertung

Du hast einen Burnout von der Hauptschule bekommen? Kaum zu glauben!

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von chucknorris30
30.10.2015, 02:29

ja wenn es da immer so eng ist und alle Leute rumschreien

1

Nein ein Abitur bringt einen absolut gar nichts ich verstehe nicht wieso sich so viele damit stressen und hoffen dann bessere Chancen im Arbeitsleben zu haben ! (Ironie aus)

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von violetta555
30.10.2015, 02:36

Ein Abitur zu haben bringt sehr wohl was . Es kommt drauf an was man für einen Beruf machen möchte . Ohne Abitur wäre es mir nicht geheuer  von einem artzt behandelt zu werden ! 

0
Kommentar von AppleWatch
30.10.2015, 02:37

Dir ist schon klar dass der Kommentar ironisch gemeint war

0

Was möchtest Du wissen?