Hallo,
Mir kam gerade die Frage in den Sinn, ob Hollywood im Bezug auf Akzeptanz gegenüber z.b. Mitgliedern der LGBTQ Community wirklich hilft, oder das Gegenteil erzeugt.
Ich bin neutral dem Thema über eingestellt und habe nichts gegen irgend jemand. Zumindest nicht auf Grund dessen, dass er oder sie Schwul, lesbisch, etc. ist. Deshalb beobachte ich die ganze Thematik als neutrale Person.
Mir ist aufgefallen, dass Hollywood (besonders Disney) sehr in die linke Richtung steuert mit Akzeptanz gegenüber Menschen mit untrepräsentierter Gruppen (keine Ahnung wie man das richtig Ausdrückt). Aber während sie das machen, sehe ich halt auch, dass sich nicht Angehörige der Gruppen ein bisschen dadurch gestört fühlen. Und ich glaube sogar, dass dadurch die toleranz gegenüber diesen Gruppen geschrumpft ist.
So sind zumindest meine Beobachtungen und deswegen wollte ich wissen (vorallem von denen die es betrifft) ob Hollywood wirklich dabei hilft, oder alles noch schlimmer macht.
Danke im voraus für die Antworten :D
Und bitte seid nett zueinander!