Ich möchte mal eine Diskussion anstoßen: Glaubt ihr, dass die Medienlandschaft, die in vielen westlichen Ländern und den USA eher links geprägt ist, unbewusst zur Stärkung rechter Bewegungen beigetragen hat?
Wie wir an den jüngsten Wahlergebnissen sehen, tickt die breite Masse scheinbar nicht so offen und progressiv, wie es in den Medien oder in Hollywood dargestellt wird.
Ich kenne viele Menschen, auch aus der politischen Mitte und sogar aus dem linken Spektrum, denen die ganze "woke"-Kultur in den Medien, in der Werbung und in Hollywood mittlerweile zu übertrieben ist.
Die Vorwürfe kultureller Aneignung, die Gendersprache in vielen Medien und Behörden, Disney-Filme wie Arielle, wo dänische Meerjungfrauen plötzlich von Afroamerikanerinnen verkörpert werden, Netflix-Serien wie "The Fall of the House of Usher", in denen 70% der Charaktere LGBTQ+-Background haben, Werbekampagnen in Europa und den USA, in denen kein weißhäutiger Mensch mehr zu sehen ist, und ein permanent erhobener medialer Zeigefinger was Themen wie Inklusion, Klimaschutz und Frauenrechte betrifft, haben meiner Meinung nach bei vielen den Eindruck erweckt, dass die Gesellschaft schon viel toleranter wäre, als sie tatsächlich ist und eine entsprechende konservative "Gegenreaktion" provoziert.
Könnte diese Darstellung in den Medien, die an der Lebensrealität vieler Menschen vorbei geht, mit ein Grund sein, warum konservative und populistische Kräfte jetzt so viel Zulauf haben?
Weil sich konservative Menschen nicht mehr von den Medien vertreten fühlen?
Diskutiert gerne mit, aber bitte höflich.