Haben Frauen in unserer westlichen Gesellschaft immer recht?

6 Antworten

Frauen haben nicht immer Recht. Nur wird ihre Meinung in manchen Gesellschaften (nicht nur in Deutschland) gehört und auch ernst genommen

Nein Frauen haben natürlich nicht immer Recht, aber um ehrlich zu sein hab ich noch nie davon gehört das die Sichtweisen von Männern weniger relevant ist. Manchmal meiner Meinung nach sogar andersrum.


speedyrunner 
Beitragsersteller
 02.06.2024, 18:55

Das sagt ja auch keiner offen. Aber so ticken viele Menschen in Deutschland.

0

Nein, Frauen haben nicht immer recht und die Sichtweise einer Frau ist nicht wichtiger als die eines Mannes. Aber ja, in der westlichen Gesellschaft ist das irgendwie so.

Naja da wir immer noch weit von der Gleichberechtigung entfernt sind, ist dein persönliches Empfinden rein subjektiv und nicht objektiv

Woher ich das weiß:Studium / Ausbildung – Selbststudium

Wer am lautesten schreit, hat Recht- und das sind, mit Hilfe der Medien- seit einiger Zeit die Frauen.