Wäre die Welt eine bessere, wenn Frauen an der Macht wären?
Wenn alle staatstragenden Posten, alle hohen Positionen in der Wirtschaft etc., einfach alle Jobs, in denen wichtige Entscheidungen getroffen werden, fortan ausschließlich von Frauen übernommen werden - wie denkt ihr würde sich die Welt verändern?
Mittlerweile denke ich sogar, das wäre besser! Obwohl ich selbst ein Mann bin.
Männer,
Menschen,
Politik,
Frauen,
Feminismus,
Frauenquote,
Männer und Frauen,
Philosophie und Gesellschaft