1.Deutschland heißt nicht mehr Deutsches Reich, aber Warum heißt Deutschland nicht mehr Deutsches Reich? 

1.1.Ein Reich wird historisch gesehen autoritär geführt z.b. von einem

Kaiser(Heiliges Römisches Reich) oder König(Britisch Empire)

da das ja nach dem 2 Weltkrieg schon nicht mehr gegeben war, ist es ja schon faktisch kein Reich mehr,

1.2.der neue Staat wollte nicht mehr mit dem in der Vergangenheit negativ geprägten begriff Reich, der in Verbindung mit Kaiser(reich) und Deutsches (Reich) u.a. mit zwei Weltkriegen assoziiert wurde verbunden werden.

2.Und wer hat entschieden das Deutsches Reich nicht mehr Deutsches Reich heißt?

Das Deutsche Nachkriegs Parlament im Westen die das Grundgesetz machten legten bewusst den Namen „Bundesrepublik Deutschland“ fest, um das neue politische System zu betonen, das auf Föderalismus, Rechtsstaatlichkeit und Demokratie basierte.

3.wer hat entschieden das Deutsches Reich Deutschland nennt?

Eigentlich heißt es "Bundesrepublik Deutschland" und Das Deutsche Nachkriegs Parlament

Der Name „Deutschland“ verweist seit Jahrhunderten auf die geographischen und kulturellen Wurzeln.

...zur Antwort