Glaubt ihr, dass Gott die Erde erschaffen hat?
Wenn ja, warum sollte er das tun?
Und jetzt kommt mir nicht mit "Er hat es halt einfach so gemacht.", das zählt nicht.
Meine Meinung ist einfach, dass Religion "Volksverdummung" ist.
Hört sich schlimmer an, als ich es meine, aber das ist eigentlich worauf ich hinaus möchte.
Ich meine, warum sollte "Gott" NUR die Erde erschaffen und sonst keinen anderen Planeten in unserem Sonnensystem? - oder ist "Gott" wie wir ihn alle unter dem Namen kennen, der Erschaffer der Planeten?
Ich möchte nur verstehen, durch was man denkt oder wie man denkt zu wissen, dass die Erde nicht natürlichen Ursprungs entstanden ist.
Ich meine, die Erde ist natürlich entstanden, ohne höheren Mächte.
Es geht einfach schon wieder darum, dass wir Menschen uns für so wertvoll halten, dass wir sogar einen Gott erfinden, nur um zu wissen, dass wir diese Scheiße nicht alle komplett selber verbocken, sondern hoffen, dass aus dem Nichts einfach jemand das alles wieder gerade rückt? Als wenn...
Bitte eure Meinung in die Kommentare.