Was ist denn die deutsche Kultur genau?

2 Antworten

Die deutsche Kultur ist Leidkultur. Sich als leidende Opfer darzustellen und als Reaktion darauf Leid in alle Welt zu bringen.

Darf man leider nichts zu sagen.

Alles Deutsche ist böse, Nazi und Out.

Also wird eine deutsche Kultur verneint und die afrikanische und arabische Kultur gefeiert.

Sorry, du darfs es sagen, kannst es aber offensichtlich nicht.

1

Was möchtest Du wissen?