Wäre es nicht besser wenn man in Deutschland eine Politik für Deutschland machen würde? Das meine ich recht allgemein gehalten.
Ich höre immer wieder mal
„Ja, aber die AfD will ja dieses oder jenes!“
„Ja, aber dies und das währe doch keine optimale Lösung!“
“Ja, aber das ist doch so gar noch durchführbar!“
Aber wäre es nicht besser eine Partei regieren zu lassen die es wenigstens versucht? Die wenigstens den Grundsatz vertritt Deutschland besser für die Deutschen zu machen?
Selbst wenn alle versuche scheitern würden wären es wenigstens Versuche für ein besseres Deutschland gewesen, oder?