Findet ihr, dass unsere Gesellschaft immer mehr dazu neigt, nahezu alles zu sexualisieren?
Mir fällt auf, dass viele Bereiche unseres Alltags zunehmend sexualisiert dargestellt werden, sei es in der Werbung, in sozialen Medien, in der Mode oder sogar in der Art und Weise, wie über Beziehungen gesprochen wird. Glaubt ihr, dass diese Entwicklung negative Auswirkungen auf uns, insbesondere auf jüngere Menschen, haben könnte, beispielsweise indem sie ein verzerrtes Bild von Sexualität oder unrealistische Körperideale vermittelt? Oder seht ihr darin auch positive Aspekte, wie etwa eine zunehmende Offenheit und Befreiung von alten Tabus? Mich würde eure Meinung interessieren, ob die zunehmende Sexualisierung eher eine natürliche Entwicklung der modernen Gesellschaft ist oder ob sie problematische Konsequenzen mit sich bringt, wie zB. Sexuelle Übergriffe von Erwachsenen gegenüber jungen Mädchen die naiv Nacktbilder im Netz veröffentlichen ohne über die Konsequenzen nachzudenken?