Was genau hat die Deutsche Evangelische Kirche noch mit dem eigentlich Christentum gemein?
Die Predigen ja nicht mehr wirklich christliche Werte, und unterstützen progressive Politik, auch wenn es gegen die Bibel ist.
Auch Himmel und Hölle predigen sie nicht mehr. Wobei die katholische Kirche, zumindest in Deutschsprachigen Gebieten kaum besser ist.
Sie setzen sich vor allem für "soziale" Dinge ein, aber ignorieren Spiritualität komplett heutzutage.
Warum wurde vor allem die evangelische Kirche so Lauwarm?