Wir werden in Filmen immer als böse Monster, die nichts anderes im Sinn hätten als Schaden zuzufügen oder kranke Dinge zu tun, dargestellt. Mir geht das allmählich richtig gegen den Strich. Gibt es auch Filme in denen wir zur Abwechslung mal gut dargestellt werden?
Ich meine jetzt mal abgesehen von Produktionen die mehr für Kinder gemacht sind oder abgesehen von kitschigen US-Serien.