Ruiniert Disney Monopol unsere Kultur?
Disney hat in der Vergangenheit viele Studios aufgekauft (Pixar, Fox, Marvel). Beispielsweise steckt Disney hinter dem neustem Star Wars Film, sowie Spiderman etc...
Disney ist ja auch für seine Weichspülerei und Romantisierung von Märchen bekannt, in dem Maße, dass die Mehrheit denkt, Dornröschen sei mit einem Kuss des Prinzen geweckt worden, obwohl in Wirklichkeit Dornröschen von dem Prinzen in der Originalfassung vergewaltigt wurde. Und jetzt machen sie auch weiter so in Star Wars, wie mit der schnulzigen Kussszene.
1 Antwort
Disney hat immer noch erstaunlich wenig mit Spiderman zu tun. Ja, die letzten drei Filme spielen im MCU, aber Sony hat dort trotzdem ein Wörtchen mitzureden und wird sich nicht alles an Rechten nehmen lassen.
Allgemein bin ich allerdings kein großer Fan von Disneys heiler Welt, wo alle glücklich und gleichgestellt sind. Der Zenit wurde lange überschritten, es gibt nur noch den gleichen Mist, egal was man von denen guckt.
Darum geht es mir noch nicht mal, ich meinte eher dieser inflationäre Gebrauch von aktuelleren Themen wie LGBQT+, Rassismus, Selbstwahrnehmung etc., diese ganzen netten Lösungen, diese Überkorrektheit und am Ende geht es allen gut und jeder hat sich lieb - das schafft keines der Probleme aus der Welt, es hilft Betroffenen nicht und lässt sie weiterhin an sich zweifeln.
Auch muss man die Vergangenheit nicht reinwaschen. Ich war schockiert als ich letztens einen Hinweis sah als ich Darkwing Duck sah, dass es auch heutiger Sicht ja überhaupt nicht geht und blah blah. Oder dass ganze Episoden von Serien totgeschwiegen werden, weil sie kontrovers sein könnten. Das schafft auch keinen besseren Umgang damit.
Und ja, zu guter letzt dieser ekelhafte Disneykitsch.
Ich denke auch, dass durch diese heile Welt Erwartungen an Romanzen völlig verzerrt werden, als wäre jede Beziehung wie im Bilderbuch und alles wäre perfekt.