Also die Frage wird bestimmt viele Diskussionen starten. Bleibt bitte sachlich.
Ich schaue mir zu Zeit eine neue Serie an in denen sich zwei Homosexuelle Frauen sich verlieben (Darum gehts aber in der Serie nicht) Ich habe mir aus Interesse mal die Bewertungen angeschaut und manche sind genervt von gleichgeschlechtlichen Liebe und Sex in den Serien.
Mir ist auch aufgefallen, dass alle aktuellen Filme und Serien immer mehr Homosexualität zeigen und das manchmal sogar mehr als Heterosexualität. Und auch sehr viele offene Sexszenen.
Warum muss in jeder Serie sowas dabei sein? Man kann sich fast gar nichts mehr anschauen ohne sexualisierte Stellen.