Seit wann ist DE ein Christliches Land?

4 Antworten

Schwer zu sagen, und erschwerend kommt hinzu, dass es Deutschland ja noch nicht so lange gibt.

Es beginnt mit dem Römerreich, der Süden und Westen Deutschlands war Teil davon. Der erste "christliche" Kaiser Konstantin begann die ersten christlichen Lebensweisen einzuführen.

Es folgte das Mittelalter und die großen christlichen Missionsbewegungen auch im Norden und Osten des heutigen Deutschland. Das Frankenreich trug ebenfalls zur Ausbreitung des Christentums bei. So kann man wohl sagen, dass das Christentum schon im 8. Jahrhundert hierzulande ziemlich gefestigt da stand.

Wie gesagt: "Deutschland" gab es da noch lange nicht. Aber als es gegründet wurde, baute es auf dem Vorhandenen auf. Deshalb ist Deutschland im Kern ein christliches Land und muss das auch nicht verleugnen, selbst wenn es sich als säkularen Staat begreift/begreifen muss. Ich bin mir auch ziemlich sicher: Selbst wenn die BRD irgendwann nicht mehr existieren wird - das Christentum bleibt bestehen und kann dann das Fundament für einen neuen Staat bilden.

Dass es die CDU bzw. CSU gibt, besagt nur, dass diese Parteien sich als christlich verstehen. Nicht mehr und nicht weniger. Das hat nichts mit dem Land zu tun. Selbst in der DDR gab’s eine CDU, obwohl sich das Land als kommunistisch verstand.

Vorherrschend ist und war hierzulande das Christentum. So wie in allen europäischen Ländern.

Schon sehr, sehr lange......

Seit dem Jahr 313 nach Christus. Also schon 1700 Jahre.

Woher ich das weiß:eigene Erfahrung – Viele Jahre eine Christin