Wem gehört Deutschland?

Ein Rechter würde argumentieren, dass Deutschland nur denen gehört, die eine "deutsche Abstammung" haben. Dabei stellen sich mir mehrere Fragen

  1. Was bedeutet "deutsche Abstammung" und wie lange muss diese zurückgehen?
  2. Wo ist der Beweis, dass die ersten Menschen auf diesem geographischen Fleck Deutsche waren und nicht andere Ethnien?
  3. Wie lässt sich moralisch begründen, dass die Abstammung auch gleich den Besitz von etwas begründet?

Normalerweise müsste doch jeder, der zu etwas beiträgt, auch einen Anteil/Besitz an diesem Etwas haben.

Beispiel: Wenn jemand aus Afrika hier einwandert, als Pfleger arbeitet und mit seinen Steuergeldern eine Schule mitfinanziert wird, sowie Straßen und öffentliche Gebäude, dann trägt er zum Wesen Deutschlands bei und hat auch einen Anteil daran. Ihm "gehört" also ein Teil von Deutschland, weil mit seinen Geldern das Land mit aufgebaut wird.

Für mich ist diese Defintion moralisch viel besser nachvollziehbar als zu sagen, dass jemand nur einen Anteil an einem Land hat, weil er davon abstammt, wobei der Begriff der Abstammung nicht mal eindeutig definiert ist und keinen moralischen Anspruch legitimiert. Denn dann müsste man auch alle Länder an die Stammesgeschichtlichen Vorfahren zurückgeben, die im Laufe der Geschichte von anderen erobert oder vereinnahmt wurden.

Was meint ihr dazu?

Geschichte, Deutschland, Politik, Kultur, Besitz, Gesellschaft, Nazi, Stammbaum, Abstammung, Ideologie

Meistgelesene Fragen zum Thema Stammbaum