Hallo, in meiner Frage geht es um die Öffentlich-Rechtlichen und die aktuelle Politik. Es fühlt sich meiner Meinung nach an, als würden die Medien gar nicht erst versuchen, neutral zu berichten, sondern um alles Erdenkliche hetzen.
Ich verliere allmählich den Glauben an die Demokratie, wenn die Öffentlich-Rechtlichen nichts weiter tun, als dieselbe Propaganda voranzutreiben, die die Politik vorgibt. Wo ist denn dann der Sinn des Ganzen?
Ich gebe euch mal ein Beispiel: Das Taylor Swift Konzert, das von extremistisch bewaffneten Muslimen attackiert werden sollte, wird komplett relativiert! Ein 19-jähriger, erwachsener Vollbärtiger Mann, der bewaffnet war, wird von den Medien als kleiner „Bub“ inszeniert, während man auf der anderen Seite um alles Erdenkliche gegen Rechts hetzen will!
Versteht mich nicht falsch, Rechts ist ebenso wie Links enorm wichtig in einer funktionierenden Demokratie. Wenn eines der beiden wegfallen würde oder unterdrückt wird, wäre es keine Demokratie mehr, sondern hätte autokratische Züge. Links ist ebenso wichtig wie Rechts.
Es gibt zig Fälle, wie die Medien und Politiker die AfD und generell (politisch rechtes Gedankengut) massivst diskreditieren, ob im Fernsehen oder in der Zeitung. Das Thema wird extremst ausgeschlachtet. Ich könnte hier noch zig weitere Vergleiche aufzeigen, jedoch wäre der Post dann zu lang. Ich nehme höchstwahrscheinlich an, dass ihr ebenso solche Erfahrungen mitbekommen habt.
Wie unsere Innenministerin Nancy Faeser. Man braucht nur durch ihre Posts auf Twitter zu gehen, und man sieht, wie sie sich politisch positioniert. Sie ist Mitglied der SPD, das ist mir bewusst, jedoch formt sie ihr politisches Gedankengut zu einer Agenda, die sie in die Tat umwandelt (wie zig Insider-Leaks es bestätigt haben).
Mitarbeiter des Verfassungsschutzes werden aufgefordert, Leute zu überwachen, die „Grünen Witze“ machen (Witze über die Grünen), während Linksextremisten nicht überwacht werden. Ihr könnt es ebenso wenig leugnen wie ich, dass hier massivst eine politische Agenda (links-grün, auch bekannt als „woke“) vorangetrieben wird, wo keineswegs kritische Meinungen zugelassen werden, ohne gleich als Nazi betitelt zu werden.
Ob Donald Trump, die Ausschreitungen in England oder die komplett gescheiterte Migrationspolitik (meine Eltern sind ebenso Ausländer) – Fakt ist, Rechts ist ein normales politisches Spektrum, und die AfD eine politische Partei, die in Deutschland zugelassen ist.
Es fühlt sich in meinen Augen nach vielem an, aber nicht nach einer funktionierenden Demokratie… und das Gefühl habe ich spätestens seit Corona.
Kurze Zusammenfassung der Corona-Zeit: Die Impfung hatte absolut keinen Sinn bei gesunden Menschen, da sowohl Gesunde als auch Ungesunde das Virus weitergeben. Politiker und das RKI wussten davon, jedoch wurden bewusst Informationen zurückgehalten, da viele Politiker durch Lobbyismus daran profitiert haben. Sozusagen wurde uns bewusst ins Gesicht gelogen mit Sätzen wie „Pandemie der Ungeimpften“ und rechtswidrigen 2G-Maßnahmen, wobei alle wussten, dass es keinen Sinn macht…. Ich komme mir langsam veräppelt vor.
Klar, wir befinden uns nicht in einer Diktatur, aber Nazi-Deutschland wurde auch nicht an einem Tag errichtet. Alles fing damit an, dass die Medien zensierten….
Daher meine Frage: Betreiben unsere Medien eurer Meinung nach Propaganda?