Wird Fußball in Deutschland schlechter?

3 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Gefühlt schon.

Es kommen immer weniger Talente nach. In den nächsten Jahren befürchtet man einen Einbruch im Jugendbereich. Viele Teams setzen auch kaum auf die eigene Jugend. Spieler werden immer mehr aus dem Ausland verpflichtet. Skandinavien ist z.b seit Jahren beliebt was Talente an geht.

In der Nationalmannschaft fehlen Idole, Typen die vorran gehen.

Wir haben immernoch sehr gute Nachwuchsleistungszentren, habe aber den Eindruck das weniger den Sprung schaffen.

Dadurch wies der Fußball schlechter. Man ist eigentlich ein Sprungbrett für die Premier League

Ganz eindeutig sogar. Die Herren-Nationalmannschaft ist weit weg von der Weltspitze und auch die Frauen sind mittlerweile nicht mehr das Maß aller Dinge. Die Junioren-Nationalmannschaften stehen kaum besser da und können anscheinend nicht mal mehr Elfmeterschießen (s. U19 FEM-Finale am Sonntag).

Na und die Bundesliga ist mit Ausnahme der Bayern vor allem wirtschaftlich international kaum konkurrenzfähig. Ja, Frankfurt hat 2022 die Europa League gewonnen, aber das war mehr die Ausnahme, als es in den kommenden Jahren wohl die Regel sein wird.

Wenn Red Bull alle manschaften aufkauft, kann es nur besser werden