Woher kommt es, dass Deutsche denken, dass die deutsche Fußballkultur, wo man ohne Investoren etc. auskommen sollte, das einzig wahre sei?
Wenn es nach vielen Deutschen gehen würde, dann sollte jeder, egal ob hier in Deutschland oder im Ausland, so wie der 1. FC Heidenheim oder der SC Freiburg machen. Der HSV ist wegen Klaus-Michael Kühne unbeliebt, Hertha BSC sank in der Gunst des neutralen Publikums zunächst wegen Lars Windhorst und jetzt wegen der 777 Group. Und was den Fußball im Ausland angeht: Da wird ja immer über die großen Klubs mit den Investoren etc. (z. B. Premier League Vereine, PSG etc.) gestänkert. Warum denken (viele) Deutsche, dass unsere Art des Fußballs das einzig wahre sei? Es hat was ein bisschen von "am deutschen Wesen soll die Welt genesen".