Versuchen Feministische Frauen Männer zu ändern?
Ich bin schon manchen Frauen begegnet die mir ihre Sichtweise einreden wollten das es nicht gut ist auf junge Frauen zu stehen die in der Lage sind Kinder zu bekommen oder auf das eigene Haus aufpassen können und sie noch nicht wissen was richtig ist und nicht zu jung heiraten sollten und mir auch noch Ratschläge geben wollten man sollte andere Frauen nehmen muss die einem Kopfschmerzen verursachen können und ich sie als Feministisch einstufen wurde. Wollen diese Frauen Männer irgendwie ändern und was genau ist ihr Ziel damit zu erreichen? Wollen sie mehr Macht oder geht es um etwas anderes?
5 Antworten
![](https://images.gutefrage.net/media/default/user/15_nmmslarge.png?v=1551279448000)
Die Antworten hier sind wie erwartet komisch. In erster Linie geht es Feministen darum, gleichgestellt in der Gesellschaft zu sein in Vergleich zu Männern. Ob eine Frau nun sagt, ab welchem Alter eine Frau heiraten sollte, hat nichts mit Feminismus zu tun, sondern mit der eigenen Moral.
![](https://images.gutefrage.net/media/default/user/15_nmmslarge.png?v=1551279448000)
Ich finde es schade, dass du von der Realität wenig Ahnung hast. Es wäre schön, wenn Frauen genauso behandelt werden wie Männer. Man sieht doch überall in den Medien, dass in verschiedenen Ländern Frauen nicht mal mehr als Mensch angesehen werden. Sie dürfen nicht in die Schule, dürfen nicht arbeiten, kein Auto fahren... Das müsste ich dir wirklich nicht erklären. Mach ein Buch auf und du siehst, dass es schon immer schwierig für Frauen gewesen ist. Was meinst du denn warum es den Weltfrauentag gibt?
![](https://images.gutefrage.net/media/default/user/13_nmmslarge.png?v=1551279448000)
Ale Mann befindet man sich heutzutage in einer unangenehmen Situation. Egal was man macht, man macht es falsch und unterdrückt Frauen.
Ich bin eine Frau, bin selber konservativ und sehe den Wandel als erschreckend an. Feminismus ist krankhaft geworden, es geht nicht mehr darum als Frau respektvoll behandelt zu werden, sondern Männer fertug zu machen bis sie den Mund halten.
Halte von solchen Menschen Abstand, die werden dich zu einem erbärmlichen Menschen machen.
![](https://images.gutefrage.net/media/default/user/14_nmmslarge.png?v=1551279448000)
Von Feministen hält man einfach Abstand.
![](https://images.gutefrage.net/media/user/LilaInPink/1676991213041_nmmslarge__0_0_256_256_fb5dc5ef4d72bc83b4476f60739c3ee3.png?v=1676991213000)
Feminismus bedeutet ursprünglich ja, gleiche Rechte zwischen den Geschlechtern. Da Frauen in vielen Aspekten benachteiligt waren, der namentliche Fokus auf sie. Inzwischen ist das zu einem undefinierten Begriff geworden, manche streben immer noch das ursprüngliche Ziel an, manche haben sehr radikale Ansichten. In der Masse würde ich nicht sagen, dass Frauen Männer (und andere Frauen) ändern wollen. Manche wollen das bestimmt.
![](https://images.gutefrage.net/media/user/hoermirzu/1568271344758_nmmslarge__0_0_1944_1944_af659c9481aa42089e25121053f47fdb.jpg?v=1568271345000)
Feministinnen sind selten oder sogar nie Männer! Ganz ohne Sternchen, immer Frauen.
Die meisten Menschen wollen anderen ihre "Wahrheiten" aufdrängen.
Frauen sind doch gleichgestellt in der Gesellschaft oder können sie dinge aufzählen die eine Frau nicht machen darf aber ein Mann schon?