Langsam regt das auf, ich meine Hä Afrika ist ein Kontinent kein kleines Land meist in Werbung meinen die so jetzt hilft Kindern in Afrika es gibt in Afrika Autos Häuser Villen usw. Immer wenn man über Afrika redet hat gefühlt jeder das gleiche Bild: Überraschung nicht jeder aus Afrika ist schwarz und fast alle Menschen besitzen Wasser und Nahrung und man benimmt sich da nicht dumm oder ist jeder arm.
Ich war so am Freitag in der Schule und ich hab gesagt ja ich komm aus Marokko und dann meinen die "besonders schlauen" "es liegt doch in Afrika" ich Guck den an und dann meint der einfach "ja aber du und deine Familie seit weiß" ich hab den einfach angeschaut und dann ignoriert danach meint die Lehrerin ja in "Afrika gibt es viel mehr Umweltschutz als hier in Deutschland, weil die da nicht so viel besitzen und nicht jeder sich dort ein Auto leisten kann" doch da besitzt fast jeder ein Auto es regteinfach so Hardcore auf!!
Warum hat Gefühlt jeder das gleiche Bild von Afrika es ist ein Kontinent und kein kleines Land oder Dorf!!!