Hey mal eine Frage an die Serienjunkies
Wie findet ihr eigentlich noch die Serie The Walking Dead?
Die war ja früher so im hype jeder hat darüber geredet alles aber mittlerweile scheinen viele Fans schon der Serie den Rücken gekehrt zu haben.
Wie sieht es bei euch aus Findet ihr The Walking Dead noch gut und wenn nicht was hat euch den Spaß verdorben?