Provokante Frage: Beschäftigt sich Deutschland medial zu sehr mit der eigenen Geschichte? Sollten wir - plump formuliert - mal mit etwas anderem auf uns aufmerksam machen als mit Kriegsfilmen?
Anlass der heutigen Diskussionsfrage ist der Erfolg der deutschen Neuverfilmung von "Im Westen nichts Neues". Der Film gewann bei der gestrigen Oscar-Verleihung die Preise für "Bester internationaler Film", "Beste Filmmusik", "Beste Kamera" und das "Beste Szenenbild".
Wir haben aus Interesse mal kurz recherchiert und folgendes festgestellt:
In den letzten 20 Jahren waren (zumindest laut Wikipedia) folgende deutsche Filme für einen Oscar nominiert - nur in zwei davon ging es nicht um einen der Weltkriege, "Stasideutschland" oder die RAF:
2005 - Der Untergang
2006 - Sophie Scholl – Die letzten Tage
2007 - Das Leben der Anderen
2009 - Der Baader Meinhof Komplex
2010 - Das weiße Band – Eine deutsche Kindergeschichte
2017 - Toni Erdmann
2019 - Werk ohne Autor
2023 - Im Westen nichts Neues
(https://de.wikipedia.org/wiki/Liste_der_deutschen_Vorschl%C3%A4ge_f%C3%BCr_die_Oscar-Nominierung_in_der_Kategorie_bester_internationaler_Film)
Was meint Ihr? Ist das gut und wichtig so? Können wir nichts anderes? Interessiert man sich eventuell in anderen Ländern nur für diese Themen, wenn es um Deutschland geht?
Wir sind gespannt, wie Eure Meinungen und Ansichten hierzu sind!